Вопрос Какой вопрос вы бы задали ChatGPTbot-у

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

Цифровой инцест⁠⁠​

Fukuraduk(c)


Балуясь с нейросетями, я тут обнаружил занятный эффект. Проще будет объяснить его суть, пошагово рассказав о том, что было сделано.
Для начала я попросил у сетки Kandinsky 2.2 нарисовать красивую девушку, смотрящую в окно в неоновых огнях.

168934224914344890.jpg

Потом сделал вариацию этой картинки (там есть такая опция).
168934225219181959.jpg

Потом смешал эти две картинки.
168934225217829785.jpg

Затем получившийся результат скрестил с первой вариацией и получил ещё один вариант.
1689342252170393717.jpg

И далее каждый следующий я смешивал с предыдущим.
168934225714460399.jpg

168934225714441968.jpg

1689342258110022985.jpg

1689342258168927256.jpg

1689343038136975922.jpg

1689342965162760819.jpg

1689343112123573282.jpg

1689343111150384228.jpg

1689343110153727806.jpg

1689343110162230105.jpg

1689342964175450388.jpg

168934296615755816.jpg

1689342965192246861.jpg

1689342959145790040.jpg

16893429591591426.jpg

168934295711002317.jpg

1689342959189510406.jpg

1689342958173421946.jpg

1689342956141096226.jpg

1689342952136698276.jpg

1689342948178170964.jpg

Результат прикольный. Деградация информации вплоть до полного исчезновения.
Я пробовал несколько раз с разными запросами, результат всегда один - вот такая или похожая сетка.

===================
P.S. У людей тоже самое: при отсутствии новой информации, наша нейросеть начинает деградировать.
P.P.S. Ленинское "учиться, учиться и ещё раз учиться" заиграло новыми красками.
P.P.P.S. Эффект известен с конца 70-х. Тогда его неофициально называли "отравление нейросети". Из-за него военные того времени отказались от использования нейросетей, хотя они прекрасно детектировали вооружение на базе анализа сканирования поверхности на разных радиочастотах.
 

Степлер

таксидермист
Легенда
Заслуженный
Лучший постер
Местное время
11:27
Регистрация
5 Ноя 2015
Сообщения
41,185
Репутация
2,136
Награды
7
Местоположение
Москва
Пол
Женский
Я бы только один вопрос ему задала: зачем ты мне нужен? Если просто так, тогда пусть. lol1
 
  • Мне нравится
Реакции: DId2

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

Степлер

таксидермист
Легенда
Заслуженный
Лучший постер
Местное время
11:27
Регистрация
5 Ноя 2015
Сообщения
41,185
Репутация
2,136
Награды
7
Местоположение
Москва
Пол
Женский
  • Смех
Реакции: DId2

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской
Исследователи из Стенфорда выяснили, что ChatGPT стал гораздо слабее.

На это есть две причины:
1) OpenAI намерено сделал ChatGPT 4 тупее.
2) Бот тупеет из-за запросов от людей.

Особенно это касается программистов — возможность с первого раза написать рабочий код даже у GPT-4 упала с 52% до 10%.

Было обнаружено, что точность определения простых чисел в марте составила 97,6%, а в июне всего 2,4%. Писать и форматировать код ChatGPT стал тоже намного хуже, чем в начале этого года. Ну и «менее охотно отвечал на нужные запросы», часто ошибаясь.

 

Drёm

Талисман
Команда форума
Супер Модератор
Легенда
Местное время
10:27
Регистрация
1 Мар 2018
Сообщения
38,691
Репутация
1,771
Уровень
2
Награды
39
Пол
Нейтральный
@DId2, думаешь возможен эволюционный регресс?
Я бы поставила на то, что подкрутили.
Особенно, учитывая, что 5 версия - платная.
 

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

GPT-4 тупеет на глазах: исследователи фиксируют явную деградацию языковой модели​



Неужели эпоха нейросетей закончится, не успев начаться?

В минувший вторник исследователи из Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой утверждается, что ответы модели GPT-4 меняются с течением времени. Эта работа подпитывает распространённое, но пока недоказанное мнение о том, что производительность популярной ИИ-модели естественного языка за последние несколько месяцев сильно ухудшилась во многих задачах.

В исследовании под названием «Как меняется поведение ChatGPT с течением времени?», опубликованном на arXiv, Линцзяо Чэнь, Матэй Захария и Джеймс Зоу выразили сомнение в постоянно высокой производительности крупных языковых моделей OpenAI, в частности GPT-3.5 и GPT-4.


Используя доступ через API, специалисты тестировали версии этих моделей за март и июнь 2023 года на таких заданиях, как решение математических задач, ответы на деликатные вопросы, генерация кода и визуальное мышление. В частности, способность GPT-4 определять простые числа, по данным исследователей, резко упала с точности 97,6% в марте до всего 2,4% уже в июне. Но вот что странно — модель GPT-3.5 в большинстве задач наоборот показала улучшенную производительность за тот же период.

jcn80h0yyxv88krxwgndr2xlzi7zrpwz.png


Сравнение точности ответов GPT-3.5 и GPT-4 в марте и июне

Мотивация провести подобное исследование у учёных появилось вскоре после того, как люди начали массово жаловаться, что производительность GPT-4 якобы стала постепенно снижаться. Одна из популярных теорий о возможных причинах подразумевает искусственное ограничение производительности самой компанией OpenAI для снижения вычислительных затрат, повышенной скорости отклика и экономии ресурса графических процессоров. Ещё одна забавная теория заключается в том, что «тупым» GPT-4 сделали люди, которые просто часто задают ему глупые вопросы.

Между тем, OpenAI последовательно отрицает любые заявления о том, что возможности GPT-4 ухудшились. Только в прошлый четверг вице-президент OpenAI по продуктам Питер Велиндер написал в своём Twitter *: «Нет, мы не делали GPT-4 глупее. Скорее наоборот: мы делаем каждую новую версию умнее предыдущей».

Хотя новое исследование может показаться убедительным доказательством догадок критиков GPT-4, другие эксперты уверены, что не стоит делать поспешных выводов. Профессор информатики Принстонского университета Арвинд Нараянан считает, что результаты проведённого исследования не доказывают однозначно снижение производительности GPT-4. По его мнению, вполне вероятно, что OpenAI просто провела тонкую настройку модели, в результате чего в ряде задач модель стала вести себя лучше, а в некоторых хуже. Но и это неточно.

Так или иначе, повсеместные заявления о снижении производительности GPT-4 заставили OpenAI провести собственное расследование. «Команда знает о сообщаемом регрессе и изучает этот вопрос», — сообщил в эту среду Логан Килпатрик, глава отдела разработки OpenAI.

Возможно, светлые умы на стороне смогли бы помочь разработчикам OpenAI выяснить причину регресса их системы, однако исходный код GPT-4 закрыт для сторонних разработчиков, за что компанию порицают при каждом удобном случае.

OpenAI не раскрывает источники обучающих материалов для GPT-4, исходный код или даже описание архитектуры модели. С закрытым «чёрным ящиком» вроде GPT-4 исследователи остаются «блуждать в темноте», пытаясь определить свойства системы, которая может иметь дополнительные неизвестные компоненты. Кроме того, модель может измениться в любое время без предупреждения.

Исследователь ИИ доктор Саша Лусьони из Hugging Face также считает непрозрачность OpenAI проблематичной: «Любые результаты на закрытых моделях невоспроизводимы и непроверяемы. Следовательно, с научной точки зрения мы сравниваем енотов и белок».

Лусьони также отметила отсутствие стандартизированных критериев в этой области, которые облегчили бы исследователям сравнение разных версий одной и той же языковой модели: «Они должны фактически предоставлять исходные результаты, а не только общие метрики, чтобы мы могли посмотреть, где они хороши и как они ошибаются».

Исследователь искусственного интеллекта Саймон Уиллисон согласился с Лусьони: «Честно говоря, отсутствие заметок о выпуске и прозрачности, возможно, является самой большой проблемой здесь. Как мы должны создавать надёжное программное обеспечение на основе платформы, которая меняется совершенно недокументированными и таинственными способами каждые несколько месяцев?».

Таким образом, хотя вышеописанная исследовательская работа может быть неидеальной и даже содержать какие-то огрехи в способе тестирования моделей от OpenAI, она поднимает важные вопросы о необходимости большей прозрачности и воспроизводимости результатов при выпуске обновлений крупных языковых моделей. Без этого разработчики и исследователи будут продолжать сталкиваться с неопределённостью и трудностями при работе с этими быстро меняющимися «чёрными ящиками» с искусственным интеллектом.

Источник: https://www.securitylab.ru/news/540205.php
 

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской
@DId2, думаешь возможен эволюционный регресс?
Я бы поставила на то, что подкрутили.
Особенно, учитывая, что 5 версия - платная.
Тут 2 варианта:
1. Подкрутили, чтобы не радовались и на фоне выхода закрытой GPT 5. Ведь вся буча про "запретим ИИ" поднята исключительно против бесплатных аналогов и более дешёвых конкурентов.
2. Отравление нейросети. Молодёжь не знает, что ещё в прошлом веке с этим столкнулись и отказались от развития нейросетевых компьютеров. Нейросеть начинает или "сходить с ума" или "видеть сны", не отличая их от реальных данных.
 

Drёm

Талисман
Команда форума
Супер Модератор
Легенда
Местное время
10:27
Регистрация
1 Мар 2018
Сообщения
38,691
Репутация
1,771
Уровень
2
Награды
39
Пол
Нейтральный

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

Drёm

Талисман
Команда форума
Супер Модератор
Легенда
Местное время
10:27
Регистрация
1 Мар 2018
Сообщения
38,691
Репутация
1,771
Уровень
2
Награды
39
Пол
Нейтральный
@DId2, хм.. но там не может быть отсутствия новой информации..
3,5 не имена доступа в открытую сеть, ей выдали инфу по состоянию на 2021 год
4 версию уже пустили в Бинг (если не ошибаюсь) т.е. у нее доступ ко всему интернету, к новостям, форумам, энциклопедиям...
По 5 не понятно, но вроде тоже она ограничена в доступе не будет.
Вопрос в качестве информации... но уровень эволюции человека других темпов развития не даст
 

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской
Вопрос в качестве информации... но уровень эволюции человека других темпов развития не даст
Вопрос в ограниченности используемой модели нейросети: все используют упрощённую математическую модель.
Используемая модель очень сложная (объективно), но по сравнению даже с исходной моделью нейрона глаза мухи Дрозофилы - очень упрощена.
 

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

ИИ против драконов: D&D запрещает скучные технологии в своем волшебном подземелье​



Иллюстраторы больше не смогут использовать магию нейросетей.
bohdmdushpyb38m7t683f6x8w4ll8rzb.jpg


Знаменитая франшиза ролевых игр Dungeons & Dragons ввела запрет на использование технологий искусственного интеллекта для создания иллюстраций.
Поводом стал скандал в соцсетях. Фанаты обратили внимание на иллюстрацию к предстоящей книге «Bigby Presents: Glory of the Giants», на которой изображен подозрительно странный воин с топором в руках. Мелкие искажения намекали на то, что рисунок создан при помощи нейросетей.
t63adgvvwldlo0ztz931wvflfg2cj5pt.png

Догадки подтвердились. Компания D&D Beyond, отвечающая за цифровую составляющую франшизы и принадлежащая Hasbro, признала, что художник, работавший с ними около 10 лет, действительно использовал ИИ, чтобы упростить творческий процесс.
После разбирательств руководство D&D и компания-владелец Wizards of the Coast сообщили, что запретили автору впредь применять ИИ в своей работе над персонажами, локациями и монстрами. Другие элементы иллюстраций пока не регламентируются, но правила для всех дизайнеров в компании будут пересмотрены, чтобы в будущем исключить подобные инциденты.
«Он больше не будет использовать ИИ для работ по заказам Wizards», — уверяют D&D Beyond.

ИИ в творческой сфере уже давно вызывает опасения из-за возможных нарушений авторских прав и сокращения рабочих мест. Недавние скандалы спровоцировали забастовку в Голливуде, заставили музыкальную индустрию менять условия премии Грэмми, а некоторых художников — подать в суд на создателей нейросетей.
Конкурент Hasbro, компания Mattel, экспериментировала с технологиями при разработке новых моделей для культовых машинок Hot Wheels. Однако пока неизвестно, было ли это разовой забавой или частью долгосрочной стратегии.
Источник: https://www.securitylab.ru/news/540707.php
 

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

Неверные ответы, но убедительный стиль: cекреты бота ChatGPT​


Исследование выявило, что ChatGPT выдал ошибочные ответы на 52% вопросов по программированию.

Согласно исследованию, посвященному работе ChatGPT, чат-бот от OpenAI допускает неправильные ответы на вопросы по программированию более чем в половине случаев. Интересно, что ответы бота оказываются настолько убедительными, что некоторые участники эксперимента, оценивавшие его ответы, не обращали внимания на ошибки.

Команда исследователей из Университета Пердью проанализировала ответы ChatGPT на 517 вопросов с платформы Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, американские ученые провели лингвистический анализ и эмоциональный анализ ответов, а также попросили двенадцать добровольцев оценить работу искусственного интеллекта. Результаты исследования были опубликованы в статье "Кто отвечает лучше? Углубленный анализ ChatGPT и Stack Overflow. Ответы на вопросы разработчиков программного обеспечения" на платформе arXiv.org .
Изучив данные, исследователи пришли к выводу, что 52% ответов ChatGPT содержат ошибки, и 77% кажутся излишне многословными. The Register назвал этот результат «хуже, чем выбор ответа при помощи подбрасывания монетки». Тем не менее, в 39,34% случаев ответы ChatGPT были предпочтительными из-за их развернутости и ясных формулировок, несмотря на то что 77% из них содержали ошибки.
Участники эксперимента могли распознать ошибки ChatGPT только тогда, когда они были очевидными. Если для выявления ошибки требовалось обратиться к документации или инструментам разработки, то добровольцы часто пропускали её или не придавали ей значения. Исследователи объясняют это «авторитетным стилем» ChatGPT: «вежливый язык, чёткие формулировки в стиле учебника и полнота ответов заставляют совершенно неправильные решения воспринимать как правильные». Даже когда в ответах бота были «вопиющие ошибки», двое из 12 добровольцев всё равно выбрали бы рекомендации бота, а не пользователя Stack Overflow.
Лингвистический анализ ответов ChatGPT и Stack Overflow показал, что ответы бота "более формальные, выражают аналитическое мышление, демонстрируют больше усилий для достижения цели и проявляют меньше негативных эмоций". Анализ тональности также позволил ученым сделать вывод, что ответы ChatGPT выражают "более позитивное настроение" по сравнению с ответами пользователей Stack Overflow.
Говоря о характере ошибок ChatGPT, исследователи подчеркнули, что бот чаще делает концептуальные ошибки, чем фактические. «Многие неверные ответы были вызваны неспособностью ChatGPT понять основной контекст заданного вопроса».
В The Register замечают связь между ростом популярности ChatGPT и снижением трафика Stack Overflow : с января 2022 года он уменьшался на 6% каждый месяц, а в марте упал на 13,9%. В то же время ежегодный опрос разработчиков Stack Overflow, в котором участвовали 90 тыс. программистов, показал, что хотя 77% респондентов относятся положительно к инструментам искусственного интеллекта, только 42% доверяют их точности.
Источник: https://www.securitylab.ru/news/540814.php
 

DId2

Moderator
Команда форума
Модератор
Заслуженный
Местное время
11:27
Регистрация
28 Фев 2018
Сообщения
17,659
Репутация
855
Награды
6
Пол
Мужской

Технологии для богатых: открытый код не спасет ИИ от монополии крупных компаний​


Кто на самом деле контролирует открытые языковые модели?

На страницах журнала Wired появилась публикация , посвященная концепции использования открытого исходного кода для языковых моделей. Концепция базируется на недавнем исследовании Llama 2 от Meta* и других моделей, которые так или иначе ассоциируются с понятием «открытости».
Исследователи из Университета Карнеги-Меллона, Института AI Now и Signal Foundation выразили мнение, что модели, которые позиционируются как «открытые», на самом деле не полностью соответствуют принципам открытого программного кода. Они подчеркнули, что даже самые «открытые» системы искусственного интеллекта сами по себе не обеспечивают демократичного доступа к ИИ или здоровой конкуренции в сфере ИИ, а открытость по себе не решает вопросов надзора и контроля.
Автор статьи на Wired, Уилл Найт, подметил, что на первый взгляд идея открытого исходного кода, которая долгие годы способствовала демократизации доступа к программному обеспечению, могла бы оказать аналогичное воздействие на область искусственного интеллекта.
Примером может служить недавно представленная языковая модель Llama 2 от Meta, которая позиционируется именно как открытая. Эту модель можно загрузить, изменять и использовать бесплатно. Однако на нее не распространяется стандартная лицензия с открытым исходным кодом. Лицензия Meta запрещает использование Llama 2 для обучения других языковых моделей; для этого требуется специальное разрешение, если модель используется разработчиками в приложениях или сервисах с аудиторией более 700 миллионов пользователей в месяц.

По мнению исследователей, такой уровень контроля позволяет Meta получить существенные технические и стратегические преимущества, например, извлекая пользу из улучшений, вносимых сторонними разработчиками, когда модель применяется в собственных продуктах компании.
В статье ученые подчеркивают, что модели, распространяемые по обычным лицензиям с открытым исходным кодом, например GPT Neo от некоммерческой организации EleutherAI, более открыты. Но они сталкиваются с трудностями в соревновании с проектами крупных корпораций. Первое препятствие – данные, необходимые для обучения сложных моделей, часто являются коммерческой тайной. Второе – платформы для разработки таких моделей обычно контролируются крупными корпорациями. Третье препятствие – вычислительная мощность, необходимая для обучения больших моделей, недоступна для обычных разработчиков или компаний (стоимость одного обучающего запуска может достигать миллионов долларов). И, наконец, для улучшения таких моделей также требуется значительное количество человеческих трудозатрат, которые обычно могут позволить себе только большие компании с обширными бюджетами на искусственный интеллект.
Исследователи приходят к выводу, что если тенденции в развитии искусственного интеллекта будут продолжаться, одной из наиболее важных технологий последних десятилетий в конечном итоге могут воспользоваться всего лишь несколько компаний, таких как OpenAI, Microsoft, Meta и Google.
*Компания Meta и её продукты (Instagram и Facebook) признаны экстремистскими, их деятельность запрещена на территории РФ.

Источник: https://www.securitylab.ru/news/541365.php
 

Стержень

Привет!
Заслуженный
Местное время
11:27
Регистрация
13 Май 2019
Сообщения
13,083
Репутация
584
Награды
1
vk.com
Пол
Мужской
Как попробовать бесплатно ChatGPT-4?⁠⁠ - попробовал пару ссылок из списка - после этого обратил внимание на приписку - " В дополнении имеется бесплатный доступ к GPT-3.5" - то есть, сразу и легко вы получаете доступ к старой версии, а чтобы получить доступ к ограниченной (кол-вом использований в сутки) более новой версии - нужно регистрироваться, без этого - никак.
 

Стержень

Привет!
Заслуженный
Местное время
11:27
Регистрация
13 Май 2019
Сообщения
13,083
Репутация
584
Награды
1
vk.com
Пол
Мужской
четверка только платно :Drem21:
И дорого!

Ну мне влом регистрироваться(по ссылкам выше), чтобы это проверить, так что - поверю на слово)

Но, кстати, по ссылкам выше легко доступен GPT-3.5 режим чат-бота Perplexity AI - ссыль - бесплатно, без регистрации, без ограничений, с пониманием русского языка.

Мой запрос: "Напиши юмористический рассказ про один день из жизни двух первобытных людей - мужчины Ууха и девушки Ююхи."

И вот ответ:
Ууха и Ююхи были двумя первобытными людьми, которые жили вместе в своем племени. Однажды, они решили отправиться на охоту, чтобы добыть еду для своей семьи. Вот как прошел их день:

## Утро
- Ууха и Ююхи проснулись рано утром, когда еще темно.
- Они проверили свои орудия и оружие, чтобы быть готовыми к охоте.
- Ююхи спросила Ууху: "Ты уверен, что мы найдем дичь?"
- Ууха ответил: "Конечно, мы же первобытные люди, мы всегда находим дичь!"

## День
- Ууха и Ююхи отправились на охоту, но не нашли ни одного животного.
- Ююхи сказала: "Может быть, мы должны были взять с собой собаку?"
- Ууха ответил: "Нет, мы же первобытные люди, мы сами должны находить дичь!"
- Они продолжили искать дичь, но все еще не нашли ничего.
- Ююхи сказала: "Может быть, мы должны были взять с собой лук и стрелы?"
- Ууха ответил: "Нет, мы же первобытные люди, мы должны охотиться с помощью копья и камня!"
- В конце концов, Ууха и Ююхи вернулись домой с пустыми руками.

## Вечер
- Ууха и Ююхи рассказали своей семье о своей неудачной охоте.
- Ююхи сказала: "Может быть, мы должны были взять с собой лодку и отправиться на рыбалку?"
- Ууха ответил: "Нет, мы же первобытные люди, мы должны охотиться на суше!"
- В конце концов, они решили, что на следующий раз им нужно будет придумать новые способы охоты.

Хотя Ууха и Ююхи не добыли никакой дичи в этот день, они все равно провели время вместе и нашли повод для смеха. В конце концов, они были первобытными людьми и не всегда могли рассчитывать на успех в своих начинаниях.
 

Стержень

Привет!
Заслуженный
Местное время
11:27
Регистрация
13 Май 2019
Сообщения
13,083
Репутация
584
Награды
1
vk.com
Пол
Мужской
Сейчас попробовал - отвечает на английском... ранее я как-то (чисто через запросы) переключал его на русский. Спрашивал его - может ли он общаться на русском, что-то такое. Спрашивал только на русском.
 

Создайте учетную запись или войдите в систему, чтобы комментировать

Вы должны быть участником, чтобы оставить комментарий

Создать аккаунт

Создайте учетную запись в нашем сообществе. Это просто!

Авторизоваться

У вас уже есть учетная запись? Войдите в систему здесь.

Верх Низ