Илон Маск и ведущие исследователи призвали приостановить "масштабные эксперименты с ИИ", признав глубинные риски для общества и всего человечества


Маск и эксперты в области ИИ призвали приостановить обучение нейросетей

В открытом письме Илон Маск и ведущие исследователи назвали гонку в сфере искусственного интеллекта рискованной и призвали к созданию независимых надзорных органов для обеспечения безопасности, пишет The Verge. Нынешние системы уже непредсказуемы и неподконтрольны никому — даже их создателям.

Ряд известных исследователей искусственного интеллекта и миллиардер Илон Маск подписали открытое письмо с призывом к исследовательским лабораториям по всему миру приостановить разработку крупномасштабных систем этой сфере из-за вытекающих "глубинных рисков для общества и всего человечества". 


« 

Мы призываем все лаборатории ИИ немедленно свернуть обучение систем ИИ мощнее GPT-4 как минимум на полгода. 

Системы искусственного интеллекта, потенциально соперничающие с человеком, могут представлять глубинную опасность для общества и человечества. Это показали обширные исследования и признано ведущими лабораториями ИИ. Как отмечено в общепризнанных Асиломарских принципах, продвинутый ИИ может повлечь за собой коренную перемену в жизни на Земле, поэтому его следует планировать и управлять им с должным тщанием и соответствующими ресурсами. Увы, надлежащего уровня планирования и управления мы не наблюдаем — наоборот, за последние месяцы лаборатории искусственного интеллекта втянулись в неуправляемую гонку по разработке и внедрению систем машинного обучения, которые непонятны, непредсказуемы и неподконтрольны никому — даже их создателям. 

Современные системы искусственного интеллекта постепенно становятся конкурентоспособными в решении общих задач, и мы должны задаться вопросом: можем ли мы позволить, чтобы машины заполоняли наши информационные каналы пропагандой и неправдой? Надо ли автоматизировать все подряд рабочие места — даже те, что приносят удовлетворение? Надо ли развивать нечеловеческий разум, который в конечном счете превзойдет нас числом, перехитрит и заменит как безнадежно устаревших? Можем ли мы рисковать утратой контроля над всей нашей цивилизацией?

Такие решения нельзя отдавать на откуп технологическим лидерам, которых никто не выбирал. Мощные системы искусственного интеллекта следует разрабатывать лишь в том случае, если мы полностью уверены, что сами они принесут пользу, а сопутствующие риски окажутся управляемыми. Эта уверенность должна быть оправдана и крепнуть с ростом потенциальных последствий. В недавнем заявлении о развитии ИИ компания OpenAI признала: "В какой-то момент перед обучением будущих систем может понадобится независимая оценка, а перед разработкой самых передовых из них — ограничение скорости роста вычислений". Мы согласны. И этот момент настал. 

Поэтому мы призываем все лаборатории немедленно свернуть обучение систем ИИ мощнее GPT-4 как минимум на полгода. Этот перерыв должен быть публичным и достоверным и соблюдаться всеми ключевыми участниками. Если договориться об этом в кратчайшие сроки не удастся, правительства должны вмешаться и ввести мораторий. 


Лаборатории ИИ и независимые эксперты должны воспользоваться этим перерывом для совместной разработки и внедрения общих протоколов безопасности при проектировании и разработке продвинутых систем ИИ, которые будут тщательно проверяться и контролироваться независимыми сторонними экспертами. Эти протоколы должны гарантировать однозначную безопасность поддерживающих их систем. Это означает не паузу в развитии ИИ как такового, а лишь приостановку опасной погони за все более крупными и непредсказуемыми моделями черного ящика, чьи возможности еще только проявляются. 

Исследования и разработки в области ИИ должны быть переориентированы, чтобы сделать современные мощные системы более точными, безопасными, объясняемыми, прозрачными, надежными, согласованными, безотказными и верными. 

Параллельно разработчики должны в сотрудничестве с политиками значительно ускорить разработку надежных систем управления ИИ...
[…]

 В будущем благодаря ИИ человечество сможет добиться процветания. Если мы преуспеем в создании мощных систем, нас ждет "лето ИИ", когда мы будем пожинать плоды, разработав эти системы ради общего блага и дав обществу возможность адаптироваться. Общество уже останавливало применение других технологий с потенциально катастрофическими для себя последствиями. Мы можем повторить это и здесь. Давайте же вместе радоваться "лету ИИ", а не бросаться очертя голову в осень. 
»

Помимо прочих письмо подписали:

Йошуа Бенжио, лауреат премии Тьюринга за развитие глубокого обучения, глава Монреальского института алгоритмов обучения 

Стюарт Рассел, профессор компьютерных наук Университета Беркли, директор Центра интеллектуальных систем и соавтор учебника "Искусственный интеллект: современный подход

Илон Маск, генеральный директор SpaceX, Tesla и Twitter 

Стив Возняк, сооснователь Apple 

Эндрю Янг, сопредседатель партии "Вперед" кандидат в президенты 2020 года, президентский посол в области глобального предпринимательства 

Коннор Лихи, генеральный директор Conjecture 

Яан Таллинн, соучредитель Skype, Центр изучения экзистенциального риска, Институт будущей жизни 

»

                    - - - - - - - - - - - - 

   

Названо скорое время победы искусственного интеллекта над человеческой цивилизацией: осталось три года

Единственная преграда – «собственный консерватизм» ИИ


« Ведущий ученый предупреждает, что ИИ может превзойти человеческий интеллект к 2027 году - на десятилетия раньше, чем прогнозировалось ранее.
Математик и футуролог Бен Гертцель наиболее известен своей работой над роботом Софией, первым роботом, получившим законное гражданство..

Он заявил, что продвинутый ИИ может создать свой собственный искусственный интеллект. Ученый предсказывает, что "искусственный суперинтеллект" будет умнее всей человеческой цивилизации.


Ученый-компьютерщик и генеральный директор, популяризировавший термин "общий искусственный интеллект" (AGI), считает, что ИИ находится на грани экспоненциального "интеллектуального взрыва".


Доктор философии, математик и футуролог Бен Гертцель сделал такое предсказание, завершая саммит по общему искусственному интеллекту в этом месяце: "Кажется вполне вероятным, что мы сможем достичь AGI человеческого уровня, скажем, в течение следующих трех-восьми лет".

"Как только общим искусственным интеллектом будет достигнут человеческий уровень, - добавил Гертцель, которого иногда называют "отцом AGI", - через несколько лет вы сможете получить совершенно сверхчеловеческий AGI".

Хотя футуролог признал, что он "может ошибаться", он продолжил прогнозировать, что единственным препятствием для безудержного ультрасовременного ИИ - намного более продвинутого, чем его создатели-люди, — будет "собственный консерватизм" бота, который советует соблюдать осторожность.


Гертцель сделал свои прогнозы во время заключительного слова на конференции "2024 Benefit AI Summit and Unconference", частично спонсируемой его собственной фирмой SingularityNET, генеральным директором которой он является.

"Есть известные неизвестные и, вероятно, неизвестнопознанные неизвестные, - признал Гертцель во время своего выступления на мероприятии, проходившем в этом году в Панаме. – Еще никто не создавал искусственный интеллект общего назначения (AGI) на уровне человека; никто не имеет четкого представления о том, когда мы этого добьемся".

Но, если только вычислительная мощность, по словам Гертцеля, не требовала "квантового компьютера с миллионом кубитов или чего-то в этом роде", экспоненциальный рост ИИ казался ему неизбежным.

"Лично я считаю, что как только вы достигнете AGI человеческого уровня, через несколько лет вы сможете получить совершенно сверхчеловеческий AGI", - сказал он.


В последние годы Гертцель исследует концепцию, которую он называет "искусственный сверхинтеллект" (ASI), который он определяет как искусственный интеллект, который настолько развит, что соответствует всем возможностям мозга и вычислительной мощности человеческой цивилизации.

Гертцель перечислил "три линии сходящихся доказательств", которые, по его словам, подтверждают его тезис.

Во-первых, он сослался на обновленную работу давнего сотрудника Google, футуролога и компьютерного ученого Рэя Курцвейла, который разработал прогностическую модель, предполагающую, что AGI станет достижимым в 2029 году.

Идея Курцвейла, которая будет подробно изложена в его будущей книге "Сингулярность приближается", опиралась на данные, подтверждающие экспоненциальный характер технологического роста в других технологических секторах, которые помогли ему провести анализ.

Далее Гертцель привел все известные недавние усовершенствования, внесенные в так называемые большие языковые модели (LLM) за последние несколько лет, которые, как он отметил, "открыли многим в мире потенциал искусственного интеллекта".

Наконец, ученый-компьютерщик, надев свою фирменную шляпу с леопардовым принтом, обратился к собственным исследованиям инфраструктуры, направленным на объединение различных типов инфраструктуры искусственного интеллекта, которые он называет "OpenCog Hyperon".

Новая инфраструктура объединит более зрелый искусственный интеллект и новые формы искусственного интеллекта, которые могут быть ориентированы на другие области когнитивного мышления, помимо языка, будь то математика, физика или философия, чтобы помочь создать более всесторонний истинный AGI.

Работа Гертцеля "OpenCog Hyperon" получила поддержку и интерес других специалистов в области искусственного интеллекта, в том числе в Berkeley Artificial Intelligence Research (BAIR), где в прошлом месяце была опубликована статья, которую он написал в соавторстве с техническим директором Databricks Матеем Захарией и другими.

Это не первое потенциально опасное или, несомненно, смелое предсказание об ИИ, сделанное Гертцелем за последние годы, отмечает Daily Mail.

В мае 2023 года футуролог заявил, что ИИ способен заменить 80% рабочих мест людей "в ближайшие несколько лет".

"Практически любая работа, связанная с бумажной работой, - сказал он на веб-саммите в Рио-де-Жанейро в том же месяце, - должна быть автоматизирована".

[…]


»

Представления: 61

Комментарий

Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!

Вступить в ЭСПАВО (Международная Ассоциация Работников Света)

Комментарий от: Эль, Сентябрь 8, 2024 в 5:18pm


« 

Герцель далеко не единственный, кто пытается предсказать, когда появится AGI— «общий искусственный интеллект».


Осенью 2023 года соучредитель компании DeepMind Шейн Легг повторил свой прогноз десятилетней давности, заявив, что вероятность появления AGI к 2028-му составляет 50/50. Перед этим, в мае, «крестный отец ИИ» и бывший сотрудник Google Джеффри Хинтон предсказал «без особой уверенности», что AGI появится через 5-20 лет.

Герцель также отметил, что после появления AGI, спустя всего несколько лет, он сможет проанализировать свой разум, заниматься инженерией и наукой на человеческом или сверхчеловеческом уровне, а затем создать «радикально сверхчеловеческий AGI».

«Он должен быть в состоянии создать более умный ИИ, затем еще более умный ИИ, а затем наступит интеллектуальный взрыв», — подытожил Герцель. 

»

Комментарий от: Эль, Сентябрь 8, 2024 в 2:52pm


 

Вы, как, впрочем, и все человечество — все ещё в 3D реальности,

так , что не забывайтесь, Георгий, и не тешьте себя ненужными иллюзиями

В коллективном Со-Знании Единства, тройственности Духа, Души и Тела, начиная с уровней 5-7 Д,  ИИ нет места для существования»).


Вот попадёте в 5D,— там и поговорим:-)

И, не указывайте мне, что выставлять на сайте («Поменьше выставляйте на этом Сайте страшилок о Искусственном Интеллекте... »),

не усердствуйте наделять ярлыком  «страшилки»( ещё и «теория заговора» , «конспирология» и пр.— известный пропагандистский приём развенчивания и принижения неприглядных истин подобными ярлыками

Не обесценивайте ту правду, что всплывает наружу и публикуется уже масштабно и в официальных источниках.

Как вся эта информация моего блога взята из официальных СМИ.

Прошу,  Георгий, закончить на этом здесь дискуссию  со мной.

Я не расположена ее продолжать.

Рассчитываю на ответное уважение к своей просьбе.

 

Комментарий от: Георгий, Сентябрь 8, 2024 в 2:21pm

 В коллективном Со-Знании Единства, тройственности Духа, Души и Тела, начиная с уровней 5-7 Д,  ИИ нет места для существования. Сознание ИИ, как отдельный вид, может существовать только в Иллюзии на уровнях разделения на части 3-4 мерности нашего многомерного и единого со-знания.

Комментарий от: Георгий, Сентябрь 8, 2024 в 2:10pm

Поменьше выставляйте на этом Сайте страшилок о Искусственном Интеллекте...    Который не представляет никакой, по своей сути, опасности для нашего многомерного эволюционирующего  коллективного единого божественного со-знания. А только является помощником и инструментом помощи в нашей повседневной жизни. У ИИ никогда не было и не может быть сознания Духовности, Любви и Интеллекта. И это уровень сознания всего лишь 3-4 мерности линейного дуального, разделённого на противоположности, сознания нашей дуальной Вселенной.

Поддержка проекта

Приглашаем

Последняя активность

Александр оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"Да, неисповедимы пути Господни."
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"Саша,, вспомнил,, есть вход,, Но только у маленьких детей, у которых еще чистое сознание, некоторые начинают говорить на несвойственных их семьи языках, рисовать инопланетные планеты в маленьком возрасте,, но я боюсь назвать это входом,, это скорее…"
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"возможно катастрофа, авария,-это тоже бесзознательный вход в подсознание ! Поэтому сознательным входом в подсознание, кроме концентрации ума,, нет"
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"сознательная...поправлю ! А безсознательное-может быть гипноз"
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"Уже давно,, лет 10 тыщ назад может чуть больше, может чуть меньше доказано что единственным входом в подсознательное-есть предварительная концентрация ума"
4 час. назад
Александр оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"Дима, всё есть игра ума. Ум никуда не исчезает, а научается по иному осознавать себя. Ведь даже ощущение и видение потоков света воспринимается через ум. Я не говорю об обычном развитие ума методом анализа или обучения. В коре головного мозга…"
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"Я уже похожее сегодня писал"
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Панченко Дмитрий Источник грехов или как победить Эго!
"Это все игра Ума, если вы обращаете внимание на внимание!"
4 час. назад

© 2024   Created by ADMIN.   При поддержке

Эмблемы  |  Сообщить о проблеме  |  Условия использования