Мифы об искусственном интеллекте.


Миф 1. У ИИ есть способности к творчеству


Глядя на творения нейросетей вроде Midjourney, Stable Diffusion или DALL·E 2, многие люди прочат конец профессии художника. Ведь то, что человек будет рисовать часами и днями, машина может создать за секунды. Значит ли это, что искусственный интеллект превосходит живой мозг в креативности?

ИИ может неплохо подражать творчеству людей, но все его произведения так или иначе похожи на то, что мы уже видели или слышали. Нейросети просматривают тысячи и миллионы картинок, а потом создают на их основе нечто подобное. Но это совсем не то же, что работа художника с референсом, — ведь ИИ банально не понимает, что он копирует.

Самый заметный пример: нейросети испытывают значительные затруднения с прорисовкой рук. ИИ просто не может сообразить, сколько пальцев должно быть у человека.

Также нейросети плохо умеют рисовать узоры и паттерны, буквы (на картинках, где должны быть тексты, вставляют белиберду), здания и автомобили, да и просто персонажей в позах, отличающихся от распространённых «сидит», «стоит», «лежит». Они не способны различить передний и задний фон объектов, не могут работать с перспективой и лишены чувства пространства.

Запрос: «Две руки держатся друг за друга». Изображение: Stable Diffusion Online

Сам ИИ свои слабости отрицать не намерен. На вопрос, почему он не преуспел в изображении пальцев, ChatGPT отвечает:

«Искусственный интеллект не умеет рисовать руки, потому что для этого ему нужно понимать анатомию человеческого тела и основы рисунка. И хотя ИИ может быть обучен создавать изображения людей или животных, он не способен в полной мере передать многие нюансы и детали, которые можно заметить только при наблюдении за реальным объектом. Кроме того, создание изображений с помощью ИИ — это всего лишь математические расчёты, а не процесс творчества, который требует от человека интуиции и эмоциональной составляющей».

Так что нейросети художников не заменят. Другое дело, что они могут стать для последних хорошим источником вдохновения. Ведь сгенерированные ИИ картинки можно использовать как эскизы для собственных, более проработанных изображений.

Миф 2. ИИ всегда непредвзят и беспристрастен


Запрос: «Робот в судейском парике и с молотком выносит приговор в зале суда». Изображение: Stable Diffusion Online

Многие мечтают, чтобы настали времена, когда государствами будут править нейросети. Считается, что машины, в отличие от людей, принимают решения, руководствуясь исключительно логикой, а не эмоциями и желаниями. Представьте неподкупные суды, которые всегда выносят справедливые приговоры, государства, относящиеся ко всем своим гражданам одинаково, правительства, создающие только разумные законы. Здорово же.

Вот только на практике оказывается, что ИИ вполне может быть предвзят. Ведь нейросети обучаются на данных, которые им предоставляют люди, а людям свойственно быть предвзятыми.

Например, разработчики нейросети Beauty.AI пытались создать машину, которая выбирала бы самых миловидных девушек на конкурсах красоты. В наборе фотографий, по которым программу обучали распознавать стандарты женской привлекательности, превалировали белые модели. И в итоге ИИ решил, что темнокожие и азиатские девушки красивыми быть не могут.
Команда Beauty.AI поняла, что создала ИИ‑расиста, и свернула проект.

Ещё один пример — чат‑бот Tay.ai от Microsoft, который должен был учиться поддерживать «непринуждённую и игривую беседу» с людьми в интернете.

Нейросети хватило менее 24 часов пребывания онлайн, чтобы набраться от пользователей соцсетей плохих привычек. В результате Tay.ai, притворяясь обычной 19‑летней девушкой, стал оскорблять людей в комментариях, восхвалять нездоровые политические течения, порицать феминизм и одновременно рассказывать, что феминизм — это круто. Как говорится, с кем поведёшься...

Как бы ни был хорош ИИ, он зависит от качества предоставляемых ему данных и правильности их интерпретации. А следовательно, всегда будет пристрастен ровно настолько, насколько пристрастны обучающие его люди.

Миф 3. ИИ всегда говорит правду


Запрос: «Футуристический робот врёт собеседнику». Изображение: Stable Diffusion Online
РЕКЛАМА

Кому бы не хотелось иметь при себе робота‑помощника, который всегда подскажет правильное решение и выполнит всю трудную умственную работу? Просишь ИИ написать диплом или собрать список источников для статьи — и машина сходу выдаёт верные данные. Это же великолепно!

Но, к сожалению, реальные нейросети далеко не всегда выдают правильные ответы. Попробуйте, например, попросить у ChatGPT помочь вам в составлении плана для курсовой, и вы очень быстро обнаружите, что машина... придумывает ссылки на несуществующие источники и вставляет нерабочие URL‑адреса, чтобы её текст выглядел убедительнее.

Если спросить чат‑бота, зачем он пытается вас обмануть, тот невинно ответит, что, когда шло его обучение, все ссылки были актуальны и он ни в чём не виноват.

Ещё у ChatGPT лучше не запрашивать статистических данных — к примеру, на несколько вопросов о ВВП одних и тех же стран за один и тот же год он невозмутимо выдавал абсолютно разные результаты.

Не обольщайтесь: нейросети не обладают интеллектом и поэтому не осознают своих ответов. Они просто копируют для вас те данные из обработанных ранее текстов, которые кажутся им наиболее подходящими.

ИИ сам по себе подвержен ошибкам и сбоям в работе, что приводит к неправильной интерпретации ваших запросов и выдаче неверных результатов. Кроме того, злонамеренные пользователи могут «скормить» нейросети не соответствующую действительности информацию. В итоге ИИ будет запрограммирован, чтобы скрывать или искажать данные в своих ответах или вовсе нести белиберду.

Миф 4. ИИ станет причиной безработицы


Запрос: «ИИ стал причиной безработицы, люди голодают, а получивший высокую должность робот смеётся над ними». Изображение: Stable Diffusion Online

Успехи в развитии текстогенераторов вроде ChatGPT заставляют некоторых опасаться, что нейросети отберут рабочие места у миллионов людей и станут причиной колоссального роста безработицы.

Судите сами: ChatGPT умеет не только непринуждённо поддерживать беседу, но и писать новости, рерайтить статьи и даже программировать. С такими тенденциями и писатели, и разработчики, и редакторы с журналистами без средств к существованию окажутся.

Так думают люди, которые либо не работали с нейросетью вообще, либо только ознакомились с её возможностями и немедленно пришли в восторг. Или в ужас.

Если некоторое время использовать ИИ для генерации текстов, можно заметить, что машина не очень‑то стремится к смысловому наполнению своей писанины. Вместо этого она повторяет одни и те же тезисы разными словами.

ChatGPT выдаёт перлы, над которыми смеются реальные копирайтеры. Например, людям, интересующимся народными инструментами, нейросеть советует «брать ложки и начинать дудеть». С программированием тоже не всё гладко. ИИ может быть полезен кодерам, но его возможности ограничиваются написанием небольших алгоритмов и подпрограмм.

Код, созданный ChatGPT, частенько получается нерабочим или прерывается на середине. Попросите ИИ прокомментировать строки его творения, и он невозмутимо снабдит их текстом «здесь находится программная логика». Джуниора‑разработчика, оставляющего такие описания в проекте, вряд ли погладили бы по голове.

Исследование Организации экономического сотрудничества и развития показывает, что в лучшем (для ИИ) случае полностью автоматизировать можно только 10% рабочих мест в США и 12% в Британии.

Нейросети способны выполнять за человека скучные рутинные действия, например сортировку почты и переписывание новостей по жёстко заданному плану. Но аналитики ОЭСР пришли к выводу, что ИИ не сможет претендовать на рабочие места, требующие высокого уровня образования и сложных навыков.

В общем, вряд ли ChatGPT отберёт хлеб у человека.

Миф 5. ИИ станет разумным


Запрос: «Искусственный интеллект обретает самосознание». Изображение: Stable Diffusion Online

Физик Стивен Хокинг как‑то сказал, что искусственный интеллект может полностью заменить людей. Такие известные личности, как Илон Маск, Гордон Мур и Стив Возняк, тоже упоминали об опасности ИИ и необходимости приостановить эксперименты по его разработке.

Поди пойми, что у мыслящего компьютера будет на уме.

Многие футурологи и писатели предсказывали, что развитие полноценного искусственного интеллекта приведёт к негативным последствиям для человека.

Но ключевое слово тут — «полноценного». Сам термин ИИ по отношению к нейросетям вроде ChatGPT не вполне корректен, поскольку они не обладают интеллектом. Это всего лишь алгоритмы, сложные наборы команд и математических моделей, и они не способны воспроизводить когнитивные функции человека.

Причина проста: мы ещё сами не очень хорошо знаем, как работает наш мозг. А уж воспроизведение его в коде и вовсе невыполнимая задача.

Существуют понятия «слабый» и «сильный» ИИ. Первый — это те самые нейросети для генерации текста или сортировки электронных писем. Они не могут самостоятельно принимать решения или обучаться на основе новых данных.

А сильный ИИ — это Skynet из «Терминатора» или AM из рассказа Эллисона. Компьютер, не просто оперирующий информацией, а в той или иной степени понимающий её смысл. Такие ИИ существуют только в фантастических произведениях, и вообще, неизвестно, можно ли создать электронный аналог человеческого мозга хотя бы теоретически.

Миф 6. Скоро ИИ начнёт развиваться самостоятельно и настанет технологическая сингулярность


Запрос: «Технологическая сингулярность». Изображение: Stable Diffusion Online
РЕКЛАМА

Технологическая сингулярность — это гипотетическое состояние человеческой цивилизации, когда развитие технологий становится настолько быстрым, что человек не может его контролировать. Одним из авторов этой концепции стал британский математик Ирвинг Гуд.

Учёный предположил: если создать самообучающийся «интеллектуальный агент», он будет совершенствоваться с непостижимой скоростью. ИИ начнёт создавать новые технологии и модернизироваться, а человечество, неспособное понять его, безнадёжно отстанет в развитии.

Первая сверхразумная машина — это последнее изобретение, которое когда‑либо понадобится человеку. При условии, что она достаточно послушна, чтобы подсказать нам, как держать её под контролем.

Ирвинг Гуд

Математик

Но, как мы уже объяснили, на самосовершенствование способен только сильный ИИ, а как его создать, учёные сейчас и близко не представляют.

Слабый же искусственный интеллект обучается на той информации, которую ему «скармливают» разработчики. Для тренировки нейросети требуются специалисты, которые определяют подходящие данные для каждого нового цикла обучения, устраняют ошибки в тренировочных выборках и обновляют программное обеспечение.

Нейросети не могут развиваться дальше тех возможностей, которые заложены в них их кодом. Так что технологическая сингулярность откладывается.

Миф 7. ИИ взбунтуется против создателей


Запрос: «Робот с ИИ возненавидел своих создателей и принимает решение уничтожить их». Изображение: Stable Diffusion Online

Обладающий достаточно развитым сознанием ИИ в теории может счесть людей угрозой. И просто на всякий случай избавиться от них, развязав ядерную войну или заразив население планеты смертоносным вирусом. Мало ли, вдруг эти безволосые обезьяны выдернут вилку из розетки.

Это популярный сюжет в научной фантастике. Одним из первых его использовал в 1967 году американский писатель Харлан Эллисон в своём рассказе «У меня нет рта, но я должен кричать». В нём всемогущий компьютер АМ возненавидел своих создателей, истребил человечество и оставил только пятерых людей на планете, чтобы издеваться над ними просто от нечего делать.

Слава роботам. Смерть человекам.

В реальности бунт ИИ невозможен. Программные алгоритмы не осознают себя, не обладают свободной волей и эмоциональными реакциями. Они не могут испытывать негативных чувств к своим создателям или желания поработить человечество. Нейросети не способны самостоятельно изменять свои параметры или программу, чтобы выйти из‑под контроля.

Что‑то такое в теории может сильный ИИ. Но, как упоминалось выше, с современными технологиями создать его не получится.

Миф 8. Роботы с искусственным интеллектом будут убивать людей


Запрос: «Терминатор охотится на людей». Изображение: Stable Diffusion Online

Когда мы говорим об опасности ИИ и восстании машин, то обычно рисуем в голове картинки из фильмов вроде «Терминатора». Ведомая искусственным разумом орда механических созданий, похожих на человека, но сильнее и быстрее его, истребляет своих изобретателей.

На практике же этот сценарий крайне маловероятен, и дело даже не в отсутствии у ИИ желания кого‑то убивать. Просто текущее состояние робототехники сильно отстаёт от того, что мы видели в «Терминаторе» и «Матрице».

Например, робопсы компании Boston Dynamics отличаются по возможностям от четвероногого убийцы из серии Metalhead «Чёрного зеркала». Бегать так быстро, чтобы преследовать удирающих людей, они не умеют. При попытке догнать вас на лестнице тот же Spot запросто может запутаться в своих ногах и упасть.

Ещё более весомое препятствие на пути к созданию механизированных убийц — отсутствие достаточно компактного, мощного и долгоиграющего источника энергии.

Робопсы Boston Dynamics способны «прожить» на одном заряде до 90 минут — этого явно недостаточно, чтобы представить из них армию для уничтожения человечества. Работающих 120 лет подряд реакторных установок, которые можно поместить в грудь машины размером с человека, как в «Терминаторе», тоже ещё не придумали.

Наконец, засунуть ИИ в автономный механизм — задача невыполнимая. Это в фантазии Джеймса Кэмерона он помещается в чип размером с ноготь. В реальности же для того, чтобы заставить искусственный интеллект соображать, требуются значительные вычислительные мощности — ChatGPT, например, работает на ферме, состоящей из 10 000 видеокарт.

Представляете, каких размеров должен быть огромный человекоподобный робот, чтобы вместить в себя такие «мозги», и какое у него должно быть охлаждение?
Источник: lifehacker.ru

Представления: 30

Комментарий

Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!

Вступить в ЭСПАВО (Международная Ассоциация Работников Света)

Комментарий от: Георгий, Сентябрь 7, 2024 в 8:48am

Информация к размышлению...

Поддержка проекта

Приглашаем

Последняя активность

Георгий оставил(а) комментарий на сообщение блога Эль Бог не «над» и не «под», Бог - в тебе, как и в каждом… Опыт Единения.
"Бог не «над» и не «под», Бог - в тебе, как и в каждом … только обнаружь  …   Его Бога, как Присутствие Любови Абсолютной и Безусловной, Любви Всего ко Всему в самом сакральном месте…"
31 мин. назад
Георгий оставил(а) комментарий на сообщение блога Эль Бог не «над» и не «под», Бог - в тебе, как и в каждом… Опыт Единения.
"  Золотое сечение есть равновесие, баланс и гармония всех энергий Одного и Единого. Любовь абсолютная и без всяких условий. Любовь Всего ко Всему. Универсальная Единая абсолютная энергия Всего, что Было, Есть, и ещё только Будет."
44 мин. назад
Георгий оставил(а) комментарий на сообщение блога Эль Бог не «над» и не «под», Бог - в тебе, как и в каждом… Опыт Единения.
" " Я ЕСМЬ неустанная Божья десница, Вечно тружусь, чтоб Победы добиться; Великая радость для чистой души – Путь Срединный смиренно вершить ".                                                                                               …"
1 час назад
Эль оставил(а) комментарий на сообщение блога Эль Бог не «над» и не «под», Бог - в тебе, как и в каждом… Опыт Единения.
"  Понравилось красиво сказанное о сути ИНТЕГРАЦИИ —Принципа Золотого сечения или Срединного Пути.             Настоящий Путь к Себе.     Настоящий Путь к Себе - это не есть потакание менталу,…"
1 час назад
Сообщение блога, созданное Эль

Бог не «над» и не «под», Бог - в тебе, как и в каждом… Опыт Единения.

Бог не «над» и не «под»,Бог - в тебе, как и в каждом… только обнаружь  … В статье, что помещу ниже,  нашла своё отражение одна очень волнующая меня тема .И это:  убежденность в том, что настоящий творческий духовный процесс происходит на равных и соОбща. Время безоговорочного  полагания на внешние авторитеты и действия «по инструкциям извне» — прошло,каковы бы ни были…Посмотреть еще
3 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Лариса Рабство и 8 вуалей.
"Вы Георгий правильно говорите, но вы просто "пристебались" к моему слову заземление...вместо того чтобы говорить о том что я обсуждаю, поэтому я и делаю вывод, что вы критикуете  только то что вам выгодно"
3 час. назад
Георгий оставил(а) комментарий на сообщение блога Лариса Рабство и 8 вуалей.
" Ты, Дмитрий Всегда должен быть заземленным с нашей планетой.  Мы с ней едины и у планеты и у нас Единое коллективное Со-Знание и неразрывная связь. Экспериментальная планета Земля не сможет существовать без нового человечества. А новое…"
4 час. назад
Панченко Дмитрий оставил(а) комментарий на сообщение блога Лариса Рабство и 8 вуалей.
"Я от просмотра новостей лучше себя чувствую,, нахожусь в более менее тонусе,, чем после просмотра (прослушивания) этого"
5 час. назад

© 2024   Created by ADMIN.   При поддержке

Эмблемы  |  Сообщить о проблеме  |  Условия использования