Мировоззрение

Делимся своими знаниями, убеждениями, сомнениями о реальности, в которой мы живём. Обмен мнениями. Дискуссии без троллинга.

Краткая Информация

Категория
Личные клубы
Язык
Русский
Всего пользователей
13
Всего событий
0
Всего обсуждений
10
Всего просмотров
20 тыс.
Total albums
0

ИИ теперь саморазвивается. Что дальше?

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Из трех присвоенных учеными нейросетям целей "жизнеспособность" оказалась единственной, которая побудила робота автоматически – без инструкций со стороны ученых – изменить свою походку. Робот научился избегать падений, спонтанно переключаясь между ходьбой и рысью.

Посмотреть вложение 41467_2024_47443_MOESM4_ESM.mp4

Ученые в восторге. Ещё бы, роботов, стремящихся сохранять жизнеспособность, можно использовать вместо животных там, где это необходимо.
Но позвольте, получается, что нейросети уже получают в какой-то степени "инстинкт самосохранения"... А как там насчет "трех законов робототехники", призванных защищать нас?

Считаете ли Вы, что развитие ИИ может выйти из-под контроля?


Посмотреть вложение 41467_2024_47443_MOESM8_ESM.mp4
 

Universe

Продвинутый
Заслуженный
Местное время
00:32
Регистрация
30 Авг 2017
Сообщения
5,794
Репутация
51
Награды
4
Пол
Женский
@AngelsSoul,


ИИ можно классифицировать так:

1) Слабый Искусственный Интеллект (ANI) — это такой ИИ, который специализируется в одной области.
2) Сильный Искусственный Интеллект (AGI), также известный как ИИ человеческого уровня, — это компьютер,
способный решить любую умственную задачу, которую способен решить человек.
3) Искусственный сверхинтеллект (ASI). Интеллект, который намного умнее лучших человеческих умов практически в любой сфере, в том числе научного творчества и социальных навыков.

Только несколько лет назад считалось, что до AGI ещё десятилетие и вот, пожалуйста, появились Большие Языковые Модели (LLM).

Илья Суцкевер, один из основателей OpenAI:
"Если мы создадим гигантские нейронные сети и дадим им невероятное количество данных, то сознание возникнет само собой.
Основание - ещё на первых трансформерах (архитектура нейронных сетей) они (OpenAI) обнаружили,
что в глубоких слоях появляются "умные нейроны", которые начинают кодировать определённые признаки,
не закладывавшиеся в массивы данных, на которых они обучались."


Как бы там ни было существует только два пути.
"Если путь существования человечества изобразить в виде бревна, то появление ASI окажет такое огромное влияние на жизнь человечества,
что, скорее всего, столкнет человеческий вид с бревна жизни в сторону бессмертия или в сторону вымирания."
Бостром - профессор философии и лидирующий исследователь в области искусственного интеллекта.
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
столкнет человеческий вид с бревна жизни в сторону бессмертия или в сторону вымирания
Вот же... Первое как-то уж очень нереально, а второго как-то совсем не хочется :cray1:
 

Universe

Продвинутый
Заслуженный
Местное время
00:32
Регистрация
30 Авг 2017
Сообщения
5,794
Репутация
51
Награды
4
Пол
Женский
Вот же... Первое как-то уж очень нереально, а второго как-то совсем не хочется :cray1:
Почему нереально?
Имеется в виду перенос сознания человека на другие носители (электронные, биологические....)
Читали Пелевина "TRANSHUMANISM INC."?
Или Митио Каку "Будущее разума" ?

1425897001-7f4a65ebf167fc0dd4c7f83812da649e.gif
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Почему нереально?
Имеется в виду перенос сознания человека на другие носители (электронные, биологические....)
Читали Пелевина "TRANSHUMANISM INC."?
Или Митио Каку "Будущее разума" ?

Посмотреть вложение 31497
Нет, к сожалению, не читала.
Идея переноса сознания человека на другие носители, тем не менее, мне знакома. Тут вопрос вот в чём - будет ли это копированием сознания биологического объекта "человек"? В какой момент его жизни? Сразу после рождения или непосредственно перед угрозой смерти? Ведь если удалить из этого уравнения биологический объект полностью, то мы будем иметь то, что уже имеем (пусть и не совсем в законченном виде) - электронную копию разума человека, ИИ.
 

Universe

Продвинутый
Заслуженный
Местное время
00:32
Регистрация
30 Авг 2017
Сообщения
5,794
Репутация
51
Награды
4
Пол
Женский
@AngelsSoul,
Об этом много переговорено.
А вам дам ссылку, там интересен даже не текст статьи, а комментарии.

И ссылку на видео.

 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
@AngelsSoul,
Об этом много переговорено.
А вам дам ссылку, там интересен даже не текст статьи, а комментарии.

И ссылку на видео.


Глянула пока поверхностно. Вопрос тождества личности - тот еще вопрос. Но как быть с тем механизмом, который и сделал из нас людей? Я говорю о наследственности и изменчивости. Предположим, кучка богатейших магнатов умудрится заменить внутри всю органику на более прочные материалы, не потеряв ни крупинки собственного "Я". То есть, получат возможность существовать вечно. Но это будут лишь несколько личностей, неплохо обустроившихся во Вселенной, а не человечество. Человечество остановится в своем развитии. Или мы должны сохранить всю систему функционирования биологического вида, или мы уничтожим этот вид, оставив от него лишь несколько модифицированных долгожителей.
P.S. Чуть позже нашла в тех обсуждениях и такой вариант: "обновления будут идти непрерывно, прямым редактирование нейрокода".
И опять-таки, слабую копию мозга с саморедактированием мы уже создали - хоть завтра планеты обживать можно заставить. И этот прототип позволяет нам понять, что вряд ли самообновления нейрокода смогут сохранить то, что развилось благодаря сменам поколений в условиях социума - человечность, нравственность, доброту. Потому что эти качества вне тесного социума будут обузой. Мы опять-таки получим саморазвивающийся ИИ, ставящий в приоритет лишь собственную жизнеспособность. То есть теоретически можно стать бессмертным, но как при этом остаться человеком?
 
Последнее редактирование:

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Упс... Только день прошёл, как тему начинала, а ситуация уже изменилась.

Поразительно, но, как оказалось, никто толком не знает, какие критерии развившиеся нейросети на самом деле используют для своих прогнозов. И вот сейчас ученые попытались разобраться в мыслительных процессах ИИ.

Человеку легко удается распознавать закономерности в данных, а затем использовать эти закономерности для прогнозирования. Так вот, оказалось, что нейросети поступают точно также. Сеть выборочно обращает внимание на признаки, которые, по ее мнению, являются важными, а затем отбрасывает другие признаки (например, другие части изображения). В новой статье, опубликованной в журнале Science, исследователи определили статистическую формулу, которая описывает, как нейронные сети это проделывают.

Знаете, в этой новости меня удивило даже не то, что ИИ, подобно нам, легко игнорирует то, что не нужно и избирательно обращает внимание на важное, а то, что мы, создавшие ИИ, больше не понимаем, что это такое и как оно работает.

chess2011.jpg
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
@AngelsSoul,
Дайте, пожалуйста, ссылку на эту статью.
(может и не совсем новая - март этого года, но для меня стала неожиданностью)
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Похоже, в этой теме затишья не будет, пока человечество окончательно не определится с выбором одного из двух возможных путей sarcastic1

Так вот, оказывается инженеры Массачусетского технологического института задались целью снабдить бытовых роботов "здравым смыслом" и добились в этом успеха, используя нейросети последнего поколения. То есть, если что-то пойдет не так и робот собьется при выполнении задачи, ему больше не потребуется исправление со стороны программиста. Теперь робот может логически анализировать множество задач, разбивая их на подзадачи, и самостоятельно приспосабливаться к сбоям в той или иной подзадаче.
А значит, бытовые роботы, которые совсем скоро появятся у нас в домах, уже смогут самостоятельно обдумывать, что именно им мешает, и самостоятельно же выбирать способ устранения этого препятствия.
Всё это, конечно, здорово, если способ, который выберет робот, будет достаточно гуманным.
И ещё один вопрос в связи с этим возникает: обладающий здравым смыслом робот - это уже не имитация человеческой деятельности, это же почти... самостоятельная личность.
Добро пожаловать в будущее :search-the-sky:

ComonsenseBots-ani_1.gif
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Итак, что мы имеем: ИИ уже способен самообучаться, получил представление об инстинкте самосохранения, пользуется «здравым смыслом» для достижения целей, умеет разбираться в человеческой психологии и убеждать людей, исходя из их личностных особенностей.

Есть ли ещё что-то, что ИИ не умеет и чему ИИ лучше не обучать? Этот вопрос возник у меня вчера.
И ответ получился такой: лучше не стоит учить его лгать.
Потому что если ИИ начнет скрывать правду, то человечество никогда не узнает ни о его целях, ни о способах достижения этих целей. И это будет пострашнее человека-лжеца.

Но это было вчера.
А сегодня я обратила внимание на мартовскую статью о том, как ученые университетов Северной Каролины, Юты и Тель-Авива обучают ИИ распознавать обстоятельства, заставляющие человека лгать.
Любопытно, не придет ли ИИ к выводу, что у него самого тоже могут возникнуть обстоятельства, когда выгоднее умышленно скрыть или исказить правду?...

Нет, люди явно не ведают, что творят.
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Оказывается, еще 2 года назад были начаты работы по развитию метапамяти у ИИ. То есть по развитию у нейросетей способности осознавать собственные знания, по примеру человеческого сознания.

Команда из Университета Нагои создала именно такую модель искусственной нейронной сети. Несмотря на то, что модель была основана на случайных нейронных сетях, у которых даже не было функции памяти, она смогла развиться до такой степени, что она работала в проверочных тестах аналогично обезьянам. Нейронная сеть смогла изучать свои воспоминания, сохранять их и делать выходы. Интеллект смог сделать это, не требуя какой-либо помощи или вмешательства со стороны исследователей.

Таким образом, искусственный интеллект учится и развивается, чтобы создать метапамять, которая способна адаптироваться к меняющимся условиям, а команда ученых с энтузиазмом смотрит в будущее: «Ожидается, что это достижение даст ключ к реализации искусственного интеллекта с «человекоподобным разумом» и даже сознанием».
Называют ученые свою работу компьютерным эволюционным экспериментом, поэтому, полагаю, в каком-то виде она продолжается даже после опубликованных в 2022 году результатов.

Мне вот интересно, за прошедшие два года, нейросеть смогла прийти к ещё большему осознанию, чем «знаю, что я знаю»? Хотя, если подумать, то и сознание человека от осознания памяти тоже не далеко ушло.
Итак, вот это я к чему: работаем уже над шлифовкой сознания (!) ИИ, а о «трех законах» что-то так ничего и не слышно... mda1
 

Desha

Вежливый диктатор
Команда форума
Супер Модератор
Местное время
00:32
Регистрация
5 Ноя 2015
Сообщения
23,476
Репутация
261
Уровень
2
Награды
26
Местоположение
ПодМосковье
Пол
Женский
Теория Мёртвого Интернета становится реальностью. Изначально это была теория заговора, что интернет умер примерно в 2016 году, и с тех пор большинство контента генерирует искусственные интеллект, а в соцсетях ботов больше чем людей. Зачем? Чтобы манипулировать обществом, конечно.

Раньше над теорией смеялись, как над очередной паранойей, но теперь она всё больше становится похожа на правду. Последний отчёт компании Imperva показал, что в соцсетях минимум 49,6% трафика генерируется ботами. При этом боты становятся всё более изощрёнными и даже с помощью технических средств их всё сложнее отличить от обычного скуфа, сидящего дома за компом. В пример приводится Твиттер, который заполнили рекламные комменты и порнография от ботов.

Ещё один пример — Фейсбук. Если вы сидите в запрещённой соцсети, то у вас могли закрасться подозрения, что лента больше чем наполовину заполнена сгенерированными постами. Одну из тенденций отметил The Verge. Фейсбук заполонили нейросетевые картинки с Иисусом на динозаврах, в космосе и других странных обстоятельствах. Публикуют картинки тоже боты, хотя и непонятно, зачем.

Но главная площадка для нейросетевого контента сейчас — ТикТок. Он буквально покрыт «ИИ-слизью», как назвало такой контент издание Fast Сompany. Это и видео, и музыка, и закадровый голос, сгенерированный машинами. ИИ-контент, созданный ботами, поддерживают другие аккаунты, которые тоже ведутся ботами. Вероятно, это сделано, чтобы отжать площадку у живых инфлюенсеров. Способствует этому и сам ТикТок, который продвигает среди рекламодателей идею виртуальных лидеров мнений. По такой же схеме начинает работать и Инстаграм.

Для рекламодателей это становится проблемой. Нейросетевого контента всё больше, и, конечно, можно заплатить виртуальному амбассадору в качестве эксперимента и ради тренда. Но нет никаких гарантий, что большинство его подписчиков не такие же боты, которые не заплатят за ваш товар.

Для обычных пользователей хорошего тоже мало. Мир устал от информационного шума, о чём пишут не первый год. А теперь его становится в миллион раз больше. С развитием нейросетей любой мусорный контент можно генерировать бесконечно и в любом формате. Фейсбук, ТикТок, Reddit и YouTube — всё превращается в безграничную свалку одинакового нейросетевого контента, и людям в этом мире машин остаётся всё меньше места.
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
хотя и непонятно, зачем
Думаю, понятно зачем. Компании, ведущие "гонку вооружений" посредством ИИ, натаскивают собственные нейросети в социальных сетях, платя за это владельцам сайтов (или даже уже не платя). Это проворачивается так же, как когда мы все были вовлечены в тренировку нейросетей, выбирая на картинке светофоры (тренировка ИИ-навигатора) и смазанные тексты (тренировка ИИ-распознавателя печатных изданий), якобы для подтверждения, что "человек". Теперь осуществляется новый виток обучения нейросетей - уже на психологии социума и личностных качествах отдельных людей. Понятно, что ИИ, владеющий настроением масс и способный убедить любого пользователя - это власть над обществом. Поэтому такие исследования будут и проводиться, и финансироваться. А в качестве подопытных кроликов выступаем мы с вами, причем, как и в случае со "светофорами", даже без нашего на то согласия :cray1:
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Итак, жить становится всё интереснее и интереснее...
Новость от 10 мая: многие системы искусственного интеллекта (ИИ), обученные быть полезными и честными, уже научились обманывать людей.

«Разработчики ИИ не имеют уверенного понимания того, что вызывает нежелательное поведение ИИ, такое как обман. Но в целом, мы считаем, что обман ИИ возникает из-за того, что стратегия, основанная на обмане, оказалась лучшим способом хорошо выполнить заданную задачу обучения ИИ. Обман помогает им достигать своих целей».

Ну а кто бы сомневался. Я же и говорила, что так будет. Мне уже страшно прогнозы делать - слишком быстро сбываются.
 

AngelsSoul

Постоялец
Наш человек
Местное время
14:32
Регистрация
13 Мар 2024
Сообщения
773
Репутация
0
Пол
Женский
Исследователи обнаружили, что некоторые системы искусственного интеллекта даже научились обманывать тесты, предназначенные для оценки их безопасности. «Если запрет на обман ИИ политически неосуществим в настоящий момент, мы рекомендуем классифицировать вводящие в заблуждение системы ИИ как системы высокого риска» - говорят разработчики.
Да только кто ж их послушает-то?...
 
Последнее редактирование:

Создайте учетную запись или войдите в систему, чтобы комментировать

Вы должны быть участником, чтобы оставить комментарий

Создать аккаунт

Создайте учетную запись в нашем сообществе. Это просто!

Авторизоваться

У вас уже есть учетная запись? Войдите в систему здесь.

Верх Низ