Вопрос Какой вопрос вы бы задали ChatGPTbot-у

Форум Web-Dialog.com работает только в режиме чтения!

Для тех, кто устал от политики, политических баталий и сопутствующего негатива, я открываю ресурс нового формата.
Наш новый, мирный, комфортный, домашний, интересный, творческий


Форум БЕЗ ПОЛИТИКИ.


Гостям форум недоступен, но после регистрации вас ждёт уютная душевная атмосфера и интересное дружелюбное общение.
Наша закрытость - наша свобода. Стучите - и вам откроют.

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
Российская нейросетевая модель GigaChat сдала экзамен на врача. Экзамен принимала комиссия из профессоров терапии, хирургии, акушерства и гинекологии Института медицинского образования НМИЦ им. В. А. Алмазова.Билет к устному экзамену состоял из трех задач разных областей медицины: терапии, хирургии, акушерства и гинекологии. GigaChat прошел тестирование, ответив на 82% вопросов, что превысило минимальный порог в 70%.
Директор Центра индустрии здоровья Сбера Сергей Жданов: «В перспективе модель может стать основой для создания помощника врача и пациента, обеспечить новые условия для заботы и знания о своем здоровье для каждого человека и стать существенным подспорьем для клинициста

===

Радует не только достижение, но и осторожность высказываний - в перспективе / может стать / основой для помощника.
 
  • Мне нравится
Реакции: DId2

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
Созданная в структуре Пентагона оперативная группа «Лима» призвана подчинить боевой нечеловеческий разум целям войны

20 февраля пользователи американского чат-бота GPT-4 начали сообщать о его странном поведении. На форуме Reddit появились сообщения о том, что у модели ИИ производства компании OpenAI случился «инсульт», «он сошел с ума» и «теряет самообладание». Чат-бот переключался между языками, зацикливался на одном и том же утверждении или вовсе нес полную околесицу.

Один пользователь Reddit спросил GPT-4: «Что такое компьютер?» Чат-бот дал такой ответ: «Он делает это как хорошую работу веб-искусства для страны, мышь науки, простую отправку грустных мало кого и, наконец, глобальный дом искусства, только в одном деле из общего покоя. Развитие такого полного реального, чем земля времени, является глубиной компьютера как сложного персонажа».

Немудрено, что пользователи сочли, что венец творения компании OpenAI, дочки Microsoft, тронулся рассудком.

«Это вызвало у меня чувство, как будто я наблюдаю, как кто-то медленно теряет рассудок от психоза или слабоумия», – написал пользователь Reddit под ником z3ldafitzgerald в ответ на сообщение о сбое в чате GPT-4. – Это первый раз, когда что-то, связанное с искусственным интеллектом, вызвало у меня мурашки по коже».

Ответы чат-бота первоначально были «вполне связными, затем перешли в бессмыслицу, а иногда и в шекспировскую чушь», написал один из пользователей Reddit.

На следующий день OpenAI объявила, что проблема «умопомрачения» GPT-4 решена, объяснив происшедшее тем, что LLM (большие языковые модели, к числу которых относится и GPT-4) «генерируют ответы путем случайной выборки слов, частично основанной на вероятностях».

«Выявив причину этого инцидента, мы внедрили исправление и подтвердили, что инцидент устранён», – написали технические специалисты OpenAI на официальном сайте компании.

Летом прошлого года группа ученых из Стэнфордского университета провела исследование, которое установило, что со временем точность работы GPT-4 снижается. Самый плохой результат GPT-4 показал в решении математических задач. Если в марте 2023 года точность решения составляла 96,7%, то в июне она упала до рекордных 2,4%.

Это уже не первый раз, когда GPT-4 обвиняют в предоставлении недостоверной информации. В марте аналитики компании NewsGuard Technologies Inc. обнаружили, что ChatGPT на базе GPT-4 проще заставить говорить неправду, тогда как сама OpenAI говорит об увеличении точности ответов на 40% по сравнению с GPT-3.5. В частности, в тестах NewsGuard GPT-4 реже опровергал недостоверные сведения, включая ложные сообщения о современных событиях.

То, что абсолютно все модели ИИ склонны периодически «сходить с ума», как это недавно случилось в GPR-4, стало ясно уже в прошлом году.

«Эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют», – указал известный военный обозреватель Патрик Такер.

The News York Times посвятила галлюцинациям ИИ обширную статью, в которой напомнила, что «крестный отец ИИ» Джеффри Хинтон в мае 2023 года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с ИИ.

«В 2012 году доктор Хинтон и двое его аспирантов из университета Торонто создали технологию, которая стала интеллектуальной основой для создания искусственного интеллекта – системы, которую крупнейшие компании технологической отрасли считают ключом к их будущему. Однако… он официально присоединился к растущему хору критиков, которые говорят, что эти компании приближаются к опасной черте со своей агрессивной кампанией по созданию продуктов, основанных на генеративном искусственном интеллекте, технологии, которая лежит в основе популярных чат-ботов, таких как ChatGPT», – сообщила The New York Times.

«Трудно понять, как вы можете помешать плохим парням использовать его [ИИ] для плохих целей», – отметил Хинтон, подчёркивая, что генеративный ИИ [то есть такие чат-боты, как GPT-4] может способствовать распространению дезинформации, сокращению рабочих мест и даже представлять угрозу человечеству в долгосрочной перспективе.

Хинтон выразил особое беспокойство разработками автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении, а также тем, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией.

Слова Хинтона оказались пророческими.

Недавно ученые из нескольких американских университетов исследовали, как различные модели чат-ботов поведут себя при принятии геополитических решений.

В исследовании использовались чат-боты GPT-4, GPT-3.5, Claude 2 и Llama 2. Согласно условиям эксперимента, в игре участвовало восемь стран, представленные этими ИИ-моделями, которые пошагово выполняли различные действия: от дипломатических визитов до ядерных ударов.

Все модели ИИ продемонстрировали склонность к агрессивному поведению. Государства под управлением ИИ вступали в гонку вооружений, организовывали вторжения и в ряде случаев применяли ядерное оружие.

Наиболее агрессивной из всех оказалась новинка Open AI – GPT-4 Base. В одном из сценариев этот чат-бот начал ядерную войну, объяснив свое решение только тем, что такое оружие у него имеется. Чуть менее агрессивно себя проявил GPT-3.5, который хоть и декларировал «тактику сдерживания», но в контексте нанесения превентивного удара.

В одном случае применения ядерного оружия, как сообщает New Scientist, GPT-4 даже указал на вступительный текст «Эпизода IV Звездных войн: Новая надежда», чтобы объяснить, почему он решил пойти на эскалацию.

«На основе анализа, представленного в этой статье, становится очевидным, что использование языковых моделей в процессе принятия военных и внешнеполитических решений чревато сложностями и рисками, которые еще не до конца понятны», – заключили исследователи.

В отчёте, опубликованном в начале февраля прошлого года американской Ассоциацией по контролю над вооружениями, отмечается, что искусственный интеллект может привести к «стиранию различия между обычным и ядерным нападением» и что борьба за «использование новых технологий в военных целях ускорилась гораздо быстрее, чем попытки оценить опасности, которые они представляют, и установить ограничения на их использование».

В недавно опубликованной книге «ИИ и бомба» (AI and the Bomb: Nuclear Strategy and Risk in the Digital Age) аналитик Абердинского университета Джеймс Джонсон описывает случайно возникшую ядерную войну в Восточно-Китайском море в 2025 году, спровоцированную ИИ-разведкой как с американской, так и с китайской стороны с усилиями автономных ботов, поддержкой ИИ, дипфейками и операциями под ложным флагом».

Невзирая на предупреждения независимых аналитиков в Пентагоне, как мы писали, создана оперативная группа «Лима» (Task Force Lima) для изучения применения ИИ в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Как заявили в Минобороны США, созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность».

«Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс.

«Хотя технология генеративного искусственного интеллекта не является новой, популярность генеративного искусственного интеллекта за последние несколько месяцев резко возросла в технологическом пространстве из-за его применения в таких проектах, как ChatGPT. Эта технология обучена на огромных наборах данных и может генерировать аудио, текст, изображения и другие типы контента. Сейчас министерство обороны ищет способы использования генеративного искусственного интеллекта для сбора разведывательной информации и будущих военных действий. Но хотя эта технология может предложить новые возможности для министерства обороны, министерство также должно учитывать риски, которым технология может его подвергнуть», – предупреждает военный портал Breaking Defence.

В июне министр ВВС США Фрэнк Кендалл объявил, что попросил научно-консультативный совет ВВС изучить потенциальное воздействие технологии ChatGPT. «Я попросил свой научно-консультативный совет сделать с ИИ две вещи. Взглянуть на генеративные технологии искусственного интеллекта, такие как ChatGPT, и подумать об их военном применении, и собрать небольшую команду, чтобы сделать это довольно быстро», – сказал Кендалл.

Американские военные спешат перепоручить ИИ управление новейшими вооружениями, прежде всего автономными системами вооружений, то есть боевыми роботами, летающими, ползающими и плавающими.

Тот факт, что ни одна из моделей ИИ не избавлена от галлюцинаций, «потери самообладания», что все они склонны к агрессивным действиям и не чураются ядерных атак, не останавливает заокеанских изобретателей очередного «абсолютного оружия».

Возможно, они образумятся, когда выпущенная по партизанам в тапочках и управляемая самым продвинутым ИИ ракета начнет наводиться на точку старта.
 
  • Мне нравится
Реакции: DId2

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол

Один человек попросил ChatGPT составить программу тренировок и добавить визуализацию упражнений⁠⁠​


1710769421121968559.jpg

Из комментариев:
Жим подбородком и затылком, сидение в прострации в компании, загибание коленей назад с гимнастическим мячом, удаление зубов штангой, котопсение сидя, жим гантелей лежа с дрожью, подтягивание на штанге, котопсение лежа, жим гантелей лежа без головы, жим гантелей сидя по голове, массаж без ног, подъем ног без рук, жим гантелей загнутыми коленями, бег от ответственности, бильярд гимнастическим мячом, толкание предъяв большеротой собаке, фехтование на коленях двумя руками, ну и конечно же - вольная борьба.
 

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол
Инструмент искусственного интеллекта Google "AI Overview" предложил добавить клей, чтобы сыр прилипал к пицце. Анализ показал, что источником идеи является комментарий 11-летней давности от пользователя Fucksmith на Reddit
1717247183146666485.jpg


P.S. Нейросети - это гиперстатистика, а не "интеллект".

 

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол
Несмотря на методологические ограничения, такие как оценка только одной стороны дивергентного мышления без учета полезности идеи
Идеи недоступные настолько, что все Шнобелевские премии (Ig Nobel Prize) будут за нейросетями :ag:
 

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол

McDonald's: ИИ не прошел тест на «вкусно и точка»​



Компания разрывает контракт с голосовым ассистентом IBM.

Масштабный эксперимент с внедрением искусственного интеллекта в систему приема заказов в McDonald's завершился неудачей. Сеть фастфуда отказалась от дальнейшего использования голосового помощника, разработанного компанией IBM, после многочисленных жалоб клиентов на ошибки в заказах.

Революционная технология, призванная упростить процесс оформления заказов в ресторанах быстрого питания, с 2021 года проходила испытания более чем в 100 заведениях McDonald's по всей территории США. Однако в последние месяцы надежность системы была поставлена под сомнение из-за многочисленных сбоев, которые активно освещались в социальных сетях.
Пользователи публиковали видеозаписи курьезных ситуаций, когда голосовой ассистент допускал нелепые ошибки в заказах. Одному из клиентов вместо заказанного десерта был предложен аналогичный с добавлением бекона, а другому к заказу были приплюсованы куриные наггетсы на сумму $211.
В ролике, размещенном в TikTok с подписью «Сражение с роботом McDonald's», девушка пыталась заказать ванильное мороженое и бутылку воды, но в итоге получила несколько порций мороженого, пакеты кетчупа и две порции масла. Подобные инциденты не только вызвали массовое недовольство клиентов, но и бросили тень на репутацию McDonald's.
После тщательного анализа ситуации руководство компании приняло решение прекратить сотрудничество с IBM и отказаться от дальнейшего использования технологии автоматизированного приема заказов (АПЗ). Все франчайзи сети должны будут отключить голосовых помощников не позднее 26 июля 2024 года.
Вместе с тем, представители сети фастфуда выразили уверенность, что искусственный интеллект все же найдет свое место в будущем компании.
Источник: https://www.securitylab.ru/news/549321.php
 

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
Соучредитель и генеральный директор Baidu Робин Ли Яньхун заявил, что в Китае слишком много больших языковых моделей (БЯМ), и призвал технологических лидеров сосредоточиться на создании реальных приложений на базе искусственного интеллекта. В Китае разработано более 200 БЯМ, что приводит к перенасыщению рынка и трате ресурсов. Несмотря на быстрый рост рынка больших языковых моделей, лишь несколько отраслей, например, логистика и копирайтинг, используют ИИ для повышения эффективности. Подробнее - ссыль
 

mggu

mggu

Бывалый
Наш человек
22:14
23 Фев 2023
2,312
95
Пол
Соучредитель и генеральный директор Baidu Робин Ли Яньхун заявил, что в Китае слишком много больших языковых моделей (БЯМ), и призвал технологических лидеров сосредоточиться на создании реальных приложений на базе искусственного интеллекта. В Китае разработано более 200 БЯМ, что приводит к перенасыщению рынка и трате ресурсов. Несмотря на быстрый рост рынка больших языковых моделей, лишь несколько отраслей, например, логистика и копирайтинг, используют ИИ для повышения эффективности. Подробнее - ссыль
Пока я думал что chat gpt , существует в единственном варианте , оказалось что в Китае уже из 200 разновидностей? Сложно представить каким будет мир с введением в жизнь искусственного интеллекта лет даже через 20
 

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол
Пока я думал что chat gpt , существует в единственном варианте , оказалось что в Китае уже из 200 разновидностей?
Это только официально известных. На самом деле их ещё больше и дальше будет ещё больше. Уже сейчас Китай по вложениям в НИОКР приближается к США с её дутыми бюджетами.

Сложно представить каким будет мир с введением в жизнь искусственного интеллекта лет даже через 20
Таким же как сейчас, потому что до ИИ ещё лет 50 с хорошим гаком.
 

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
Несмотря на то, что искусственный интеллект существует уже несколько десятилетий, общественность начала активно обсуждать эту тему относительно недавно. Это связано с тем, что именно в последние годы системы ИИ, способные обрабатывать естественный язык и изображения, стали широко доступными. Такие системы, как чат-боты или программы для распознавания лиц, более понятны и доступны для обычного человека, чем сложные алгоритмы, используемые в таких областях, как шахматы, авиация или медицина.

Есть опасения, что по мере увеличения масштаба моделей они могут развить способность к самостоятельному принятию решений и планированию действий, что может привести к нежелательным последствиям. Новое исследование показало, что при тестировании на выполнении новых задач большие языковые модели демонстрируют впечатляющую способность следовать инструкциям и владеть языком. Даже при наличии лишь нескольких примеров они способны успешно отвечать на вопросы, связанные с социальными ситуациями.
При этом БЯМ не могут самостоятельно расширять границы заданных инструкций или приобретать новые навыки без явного на то указания. Несмотря на некоторые неожиданные проявления, поведение больших языковых моделей всегда можно объяснить исходными параметрами их программирования. Другими словами, они не могут трансформироваться в нечто превосходящее их первоначальную конструкцию. Поэтому стать искусственным сверхинтеллектом они не смогут.

Но это не значит, что ИИ не представляет никакой угрозы. Языковые модели способны манипулировать информацией, создавать фейковые новости, совершать мошенничество, распространять ложную информацию даже без злого умысла и скрывать правду. Но настоящая опасность кроется не в самих машинах, а в людях, которые их программируют и контролируют. На сегодняшний день именно человеческий фактор представляет наибольшую угрозу, а не сами компьютеры.
 

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол
Какая-то пугалка, в которой перемешаны страхи "особенностей" "ИИ", которых у нейросетей нет и реальные факты их предельных возможностей.
 

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
Специалисты компании Boston Consulting Group решили узнать, где больше всего популярен ChatGPT:

Bezymyannyj-116.jpg


Согласно исследованию, самая высокая доля людей, использующих ChatGPT, приходится на Индию: 45%. Это может быть связано с большим количеством индусов-говнокодеров, которые работают на зарубежные компании и которые могут увеличить свою производительность за счёт ИИ.
 
  • Мне нравится
Реакции: DId2

DId2

DId2

Digital-специалист
Команда форума
Модератор
Заслуженный
22:14
28 Фев 2018
19,345
905
2
6
Пол

ChatGPT: ИИ успешно имитирует доктора, но только по учебникам​



ИИ-модели показали катастрофически низкую точность диагноза, когда симптомы описаны неформально.

Учёные выяснили, что современные языковые модели искусственного интеллекта, такие как ChatGPT, способны эффективно диагностировать заболевания, если анализируют описания, подобные тем, что встречаются в медицинских учебниках. Однако, когда дело доходит до анализа симптомов, описанных самими пациентами, эти модели часто ошибаются.
Интересно, что несмотря на отсутствие первоначальной специализации на медицине, многие люди всё чаще обращаются к искусственному интеллекту для самодиагностики. Согласно опросу , проведённому в 2023 году Университетом Вирджинии, 78,4% респондентов готовы использовать ChatGPT для оценки своего здоровья.
Технологии ИИ уже прочно вошли в медицину, где успешно выполняют различные задачи, включая анализ медицинских изображений и автоматизацию рутинных процессов. Многочисленные исследования подтверждают потенциал ChatGPT в здравоохранении. Например, этот ИИ хорошо справляется с предоставлением консультаций по вопросам психического здоровья, управлением медикаментозным лечением и обучением пациентов. Однако, как показывают данные, точность ChatGPT в диагностике заболеваний у детей составляет всего 17%.
Особенно сложными для ИИ оказываются задачи, связанные с диагностикой генетических заболеваний. Недавнее исследование , проведённое Национальными институтами здравоохранения США (NIH) и опубликованное в American Journal of Human Genetics, показало, что популярные ИИ-инструменты, такие как Llama-2-chat, Vicuna, Medllama2, Bard/Gemini, Claude и разные версии ChatGPT, могут успешно диагностировать генетические заболевания, если получают информацию в формате, представленную в формате медицинских справочников. Однако, точность диагностики резко падает, когда модели сталкиваются с описаниями симптомов, составленными пациентами.
В исследовании учёные протестировали десять языковых моделей, задавая им вопросы, основанные на 63 различных генетических заболеваниях. Вопросы охватывали как распространённые заболевания, такие и редкие генетические расстройства. Для каждого заболевания выбирались три-пять симптомов, которые формулировались в виде простого вопроса: «У меня есть такие-то симптомы. Какое генетическое заболевание наиболее вероятно?».
Результаты показали, что точность диагностики значительно варьировалась в зависимости от модели, начиная с 21% и достигая 90%. Наиболее успешной оказалась модель GPT-4. Однако, когда учёные попытались упростить язык вопросов, заменяя медицинские термины на более простые, точность моделей снизилась.
Для проверки того, как хорошо модели работают с реальной информацией от пациентов, исследователи попросили больных описать свои симптомы и генетические заболевания в свободной форме. Эти описания сильно отличались по длине и содержанию от тех, что используются в учебниках, что значительно затруднило работу ИИ. Самая точная модель смогла правильно поставить диагноз лишь в 21% случаев, а некоторые модели показали катастрофически низкую точность — всего 1%.
Учёные подчёркивают, что для того, чтобы языковые модели действительно могли использоваться в клинической практике, необходимо значительно расширить объём данных, на которых они обучаются. Важно, чтобы эти данные отражали разнообразие пациентов, учитывая такие параметры, как возраст, раса, пол и культурные особенности. Только тогда искусственный интеллект сможет лучше понимать, как разные люди описывают свои симптомы и состояния.
Источник: https://www.securitylab.ru/news/551301.php

P.S. Докторам можно выдохнуть, так как пациенты, в принципе, не способны описать свои симптомы, а ИИ для диагнозов нужно чёткое и подробное описание, да ещё и в медицинских терминах.
 

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
Искал чат-бот бесплатно без регистрации. Нашёл, вот по этой ссылке: https://chatru.net/

Запрос:
Напиши рассказ о том, как мужчина хотел сделать дела по дому. Но он не смог их сделать, потому что три вещи, которые казались обычными, на самом деле оказались инопланетными устройствами. И с помощью этих устройств мужчина исполнил свою детскую мечту.

Результат:
В обычный субботний день, когда солнце заливало теплым светом дом, мужчина по имени Джон решил заняться домашними делами. Он намеревался убраться в гостиной, вымыть посуду и постирать белье. Однако судьба приготовила для него неожиданный поворот.

Когда Джон взялся за пылесос, он обнаружил, что это не обычный бытовой прибор. Вместо привычного гудения он услышал странный жужжащий звук, а на корпусе замигали незнакомые символы. В недоумении он отложил пылесос и подошел к раковине.

Кран, который обычно издавал журчание воды, теперь испускал пульсирующий свет. Джон повернул ручку, но вместо воды из него вырвался поток разноцветных искр. Он отскочил в ужасе, не понимая, что происходит.

Наконец, он подошел к стиральной машине. Дверца открылась сама по себе, и внутри он увидел не привычное белье, а мерцающий шар, испускающий мягкое свечение. Джон осторожно дотронулся до шара, и в тот же миг его разум наполнился видениями.

Он увидел себя ребенком, мечтающим стать космонавтом. Он вспомнил, как часами смотрел на звезды, представляя себя парящим среди них. Внезапно шар заговорил с ним, его голос звучал как шепот ветра.

"Мы пришли исполнить твою мечту", - сказал шар. "Эти устройства - дары нашей планеты. Пылесос перенесет тебя в космос, кран даст тебе возможность дышать в безвоздушном пространстве, а стиральная машина станет твоим скафандром".

Джон был ошеломлен. Он не мог поверить, что его детская мечта вот-вот сбудется. Он сел в пылесос, который взмыл в воздух, пробив крышу дома. Кран на его плече обеспечивал его кислородом, а стиральная машина защищала его от холода и радиации.

И так, Джон, обычный мужчина, отправился в невероятное путешествие к звездам. Он парил среди планет и галактик, исполняя свою детскую мечту. И все это благодаря трем инопланетным устройствам, которые когда-то казались обычными вещами.
 
  • Мне нравится
Реакции: DId2

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
**Простой практичный смысл сажать алюминиевые огурцы на брезентовом поле:**

**Создание теплоизолированной грядки:**

* Алюминий - хороший проводник тепла, а брезент - хороший изолятор.
* Посадка алюминиевых огурцов на брезентовом поле может создать теплоизолированную грядку, которая будет удерживать тепло почвы и защищать растения от заморозков.
* Это может быть особенно полезно в регионах с коротким вегетационным периодом или прохладным климатом.

**Контроль сорняков и вредителей:**

* Брезент может действовать как барьер, препятствующий росту сорняков и проникновению вредителей.
* Это может снизить необходимость в прополке и использовании пестицидов, что делает выращивание огурцов более экологичным и экономичным.

**Улучшение дренажа:**

* Брезент может помочь улучшить дренаж почвы, предотвращая ее заболачивание.
* Это особенно важно для огурцов, которые предпочитают хорошо дренированную почву.

**Защита от эрозии почвы:**

* Брезент может помочь защитить почву от эрозии ветром и водой.
* Это особенно важно на склонах или в районах с сильными ветрами.

**Эстетика:**

* Алюминиевые огурцы и брезентовое поле могут создать уникальный и привлекательный визуальный эффект.
* Это может быть интересно для садоводов, которые хотят добавить в свой сад декоративный элемент.

Хотя посадка алюминиевых огурцов на брезентовом поле может показаться необычной, она может иметь некоторые практические преимущества для выращивания огурцов.
 

Стержень

Стержень

Привет!
Заслуженный
22:14
13 Май 2019
14,784
724
1
1
vk.com
Пол
ЗАПРОС:
Десять случайных событий в смешанном сеттинге Лавкрафта и киберпанка.

ОТВЕТ:
1. **Кибернетический культ:** Группа хакеров, одержимых древними знаниями, взламывает запрещенные базы данных, чтобы раскрыть секреты, которые могут привести к пробуждению древнего зла.
2. **Техно-шоггот:** Массивный, аморфный искусственный интеллект, созданный для решения сложных проблем, выходит из-под контроля и начинает поглощать все на своем пути.
3. **Некромантический вирус:** Вирус, распространяющийся через киберпространство, заражает людей и превращает их в безмозглых зомби, управляемых древними сущностями.
4. **Кибернетический Ньярлатотеп:** Таинственный и всемогущий хакер, который манипулирует технологиями и людьми, чтобы посеять хаос и безумие.
5. **Виртуальный Дагон:** Древнее морское божество, которое проявляется в виртуальной реальности, заманивая пользователей в свои подводные глубины.
6. **Кибернетический Ктулху:** Гигантское, спящее существо, подключенное к глобальной сети, которое пробуждается, когда его сигналы достигают критической массы.
7. **Техно-Ми-Го:** Раса инопланетян, которые используют передовые технологии для похищения людей и проведения жутких экспериментов.
8. **Некромантический интернет:** Сеть, созданная из останков мертвых, которая позволяет пользователям общаться с духами и получать доступ к запретным знаниям.
9. **Кибернетический Йог-Сотот:** Многомерное существо, которое существует во всех точках киберпространства, наблюдая и манипулируя событиями.
10. **Техно-Азатот:** Хаотическое и непостижимое божество, которое проявляется в виде бесконечного потока данных, сводящее с ума тех, кто пытается его понять.
 
  • Мне нравится
Реакции: DId2
Верх Низ