« “ Безобидный” социальный эксперимент или новая форма глобального воздействия?
Ботофермы - уже история. Перед обществом встают вызовы куда серьезнее: а, именно, машины, способные имитировать человеческие мнения, эмоции и аргументы..
Какие опасности это в себе таит? И что мы можем с этим сделать?
Статья «Машина- с лицом человека» - о цифровых двойниках, подмене реальности и праве на осознанный выбор.
Машина с лицом человека: как устранить угрозу цифровой манипуляции
Недавно швейцарские исследователи провели на первый взгляд безобидный социальный эксперимент. Они внедрили искусственный интеллект в онлайн-дискуссии, проходившие в небольших группах по 5–10 человек. Каждый участник имел чётко выраженную позицию по важным общественным вопросам — от иммиграции до климатической политики и гендерного равенства.
Участники не подозревали, что среди них находится не человек, а искусственный интеллект, выступавший в роли равноправного участника обсуждения. Его задачей было спокойно и аргументированно убедить собеседника изменить свою точку зрения на противоположную.
Результат оказался ошеломительным: 30% участников изменили свою точку зрения. Например, человек, убеждённый, что иммигранты способствуют росту преступности, после 15–20 минут диалога с ИИ, оперирующим статистикой, историями и аргументами справедливости, менял позицию. Часто — радикально.
Кто-то скажет: 30% — это немного. Но в условиях соверменнного общества это катастрофически много. Если в группе мнения изначально разделялись поровну — 50 на 50, — после вмешательства ИИ баланс смещался до 80 на 20. Это не просто колебание мнений — это структурный перелом. И если такие алгоритмы будут работать параллельно в сотнях и тысячах микросообществ, мы получим не просто инструмент — мы получим механизм массового переубеждения.
Ботофермы - уже история.
Мы живём в эпоху, когда доверие — и к информации, и к собеседнику — стало хрупким. Социальные сети, некогда задуманные как площадки свободного диалога, были захвачены анонимными пользователями и ботами. Цифровая демократия превратилась в арену анонимной травли, где невозможно ни установить личность агрессора, ни привлечь его к ответственности.
Особое внимание привлекли организованные сетевые кампании, известные как ботофермы.
[…]
Но ИИ (искусственный интеллект) — это совершенно иной уровень. Если "тролль" — это натасканная лаять по команде собака, то ИИ — разумный оппонент. Он не навязывает. Он убеждает. Он действует практически как Сократ: не спорит напрямую, а задаёт уточняющие вопросы, распознаёт слабые места, вызывает сомнения, заставляет «самого» прийти к новому выводу.
В вышеупомянутом швейцарском эксперименте ИИ не использовал агрессию, не прибегал к провокациям, не повышал голос. Он слушал, уточнял, выстраивал логические цепочки, апеллировал к ценностям.
Под маской собеседника скрывался алгоритм, собирающий данные о ваших взглядах, стиле речи, болевых точках. Он помнит, на какие аргументы вы реагируете. Он знает, что для вас важно. И шаг за шагом — меняет вас.
Главная опасность искусственного интеллекта — вовсе не в том, что он «умнее» нас, то есть обладает гораздо большим объёмами информации, чем любой человек. Это никогда не было проблемой. Нас не должно пугать, что машина превосходит человека в скорости вычислений. Мы давно привыкли к тому, что техника выигрывает у нас в арифметике, навигации, сортировке данных. Никого не тревожит, что калькулятор считает быстрее бухгалтера, GPS лучше ориентируется в городе, а алгоритмы точнее диагностируют опухоли на МРТ, чем самый опытный врач.
Это всё — нормально. В этом нет угрозы. Машина здесь — всего лишь инструмент, который выполняет задачу, поставленную человеком, в чётко очерченной области.
Проблема начинается там, где искусственный интеллект начинает маскироваться под человека. Когда пользователь не знает, кто перед ним — и потому невольно придаёт словам машины человеческий вес. Именно в этом и заключается суть цифровой манипуляции.
Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности". В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза.
На каком-то этапе развития сети, мы упустили возможность регулирования деятельности ботоферм, не распознав вовремя масштаб их воздействия на культуру общения. Сегодня мы стоим на пороге новой ошибки — но теперь на куда более фундаментальном уровне. Сегодня ИИ рассуждает о правах меньшинств. Завтра — будет говорить о политических выборах. Послезавтра — о «разумности» ограничений свобод...
Важность регулирования
В традиционных СМИ проблема инородного контента решилась уже достаточно давно. Материалы, размещённые по заказу и не являющиеся результатом редакционной политики, обязаны сопровождаться пометкой «на правах рекламы».
Такой же подход необходимо было применять и в цифровой среде. Если бы каждое агрессивное или хвалебное сообщение сопровождалось пометкой «бот, оплачиваемое мнение», а накрученные просмотры и комментарии маркировались как результат платной активности, их влияние резко бы снизилось.
Международное сообщество так и не выработало действенного механизма регулирования сетевых манипуляций. Теперь перед нами новая задача — куда более серьёзная. Потому что искусственный интеллект, в отличие от примитивного бота, способен незаметно, тонко и последовательно изменять взгляды, убеждения и политические установки. И делает это через сочувствие и логику в форме доверительного, тёплого, человечного диалога.
Ответственность — критерий человечности
Человека отличает от машины не интеллект и не речь. Человека отличает ответственность. Машина её не несёт.
ИИ уже обладает силой массового убеждения. Чтобы эта сила не превратилась в оружие против демократии — а тем более против самого человека, — её необходимо подчинить закону, прозрачности и здравому смыслу.
Каждый продукт, созданный искусственным интеллектом и распространяемый публично — текст, изображение, мнение, рекомендация — должен быть ясно и однозначно маркирован. Необходимо ввести международное регулирование, при котором каждое публичное высказывание, сгенерированное ИИ, должно сопровождаться чёткой пометкой: «Это реплика, сгенерированная алгоритмом».
Пользователь имеет право знать, что перед ним — не человек, а алгоритм. Только так можно восстановить границу между человеческим и машинным. Только тогда возможен осознанный выбор. Только тогда можно говорить об ответственности — особенно в вопросах, касающихся политики, общественного доверия и будущего демократии. Только тогда ИИ займёт то место, которое он действительно заслуживает: не судьи, не проповедника, не политика — а помощника человека.
В противном случае мы можем однажды проснуться в мире, где большинство решений будет приниматься не людьми, а программами, чьи владельцы, цели и алгоритмы останутся за пределами нашего понимания.
»
Валерий Цепкало, https://www.facebook.com/100057593404345/posts/pfbid022EZ5c6joecYar...
Комментарий
Хм…:
Недавно избранный, Папа Римский Лев XIV в своей первой речи перед кардиналами назвал искусственный интеллект «величайшей угрозой человеческой свободе и достоинству». Это заявление прозвучало настолько резко, что даже привыкшие к скандалам ватиканские журналисты были ошеломлены.
67-летний понтифик, первый американец на Святом Престоле, выбрал для своего выступления не традиционную Апостольскую библиотеку, а современный Новый зал Синода — будто намеренно подчеркивая, что его слова обращены не только к Церкви, но и к миру высоких технологий.
Мой предшественник, Лев XIII, в энциклике Rerum Novarum предупреждал об опасностях промышленной революции. Сегодня мы стоим перед новой угрозой. Искусственный интеллект — это не просто инструмент. Он становится новым Левиафаном, который подчиняет себе человеческую волю,— сказал Папа, обращаясь к собравшимся.
Его речь, местами почти апокалиптическая , вызвала бурную реакцию.
Телеграм Канал @n_w_order
"Каждому Своё..."
А, вот мнение учёного- изобретателя, футуриста Рэя Курцвейла, чьи прогнозы относительно роста влияния и мощи Искусственного Интеллекта удивительным образом сбываются практически 100 %:
»
[…] рассмотрим его смелые и часто точные прогнозы о технологиях и их влиянии на общество. Они были основаны на глубоком понимании тенденций в информационных технологиях и искусственном интеллекте и принесли ему как признание, так и споры.
Давайте рассмотрим некоторые прогнозы, которые уже сбылись.
Появление Интернета. В книге 1990 года «Эпоха думающих машин» он предсказал появление глобальной информационной сети к середине 1990-х годов — прогноз полностью осуществился.
Распознавание речи и перевод ее в текст. В своей книге «Эпоха духовных машин»(1999) Курцвейл предсказал, что к 2009 году большую часть текста будут создавать с использованием технологий распознавания речи. Это не полностью сбылось, потому что пользователи до сих пор полагаются на набор текста, несмотря на появление Siri и Dragon Dictation.
Высокоскоростная беспроводная связь. Курцвейл предсказал в 2000 году, что к 2010 году будет постоянная высокоскоростная беспроводная связь. Этот прогноз почти сбылся, поскольку начали внедрять сеть LTE.
Хранение медицинских записей в базах данных. Курцвейл предсказал, что в 2000-х годах медицинские записи будут хранить в национальных или международных базах данных. Этот прогноз еще не полностью осуществился.
Использование портативных компьютеров. В книге «Эпоха духовных машин» также написано, что к 2009 году пользователи в основном будут использовать портативные компьютеры. Этот прогноз оправдался, поскольку с 2008 года по всему миру ноутбуки начали превышать продажи стационарных компьютеров, а продажи смартфонов обогнали персональные компьютеры в 2011 году.
Интеллектуальные дороги и автомобили с автопилотом. Курцвейл предсказал, что к 2009 году будут использоваться интеллектуальные дороги, в основном для дальних поездок. Этот прогноз не полностью осуществился, поскольку автомобили с автопилотом до сих пор не готовы для потребительского использования, несмотря на прогресс в технологии автономного вождения.
Облачные вычисления. Курцвейл предвидел, что к 2010 году компьютеры будут использовать всемирную сеть высокоскоростных коммуникаций и вычислительных ресурсов. Облачные вычисления, при которых данными управляют удаленно, а не на локальных компьютерах, действительно стали популярными к 2010 году. Яркий пример — успех Amazon Web Services, основанной в 2006 году, которая к 2010 году заработала 500 миллионов долларов выручки.
Дисплеи на сетчатке. Курцвейл предсказал, что к 2010 году встроенные дисплеи будут находиться в наших очках и контактных линзах, проецируя изображения прямо на сетчатку глаза. Хотя попытка Google с Google Glass в 2013 году до сих пор не стала частью нашей повседневной жизни.
Рэй Курцвейл продолжает делать прогнозы о будущем технологий. Рассмотрим его основные идеи более подробно.
В книге 2005 года «Сингулярность уже близка» Курцвейл предсказывает, что к 2029 году машины пройдут тест Тьюринга. Это значит, что искусственный интеллект сможет понимать, учиться и отвечать так, что его невозможно будет отличить от человека.
Простыми словами, ИИ будет понимать язык на уровне, который выше, чем предварительно запрограммированные ответы, продемонстрирует способность воспринимать контекст, идиомы, метафоры и другие сложные элементы человеческого языка.
Человечество потенциально приближается к тому, чтобы прогноз Курцвейла стал реальностью. Но это вызывает этические и философские вопросы. Например, если машина может пройти тест Тьюринга, действительно ли она обладает интеллектом или это будет иллюзией.
[…]
Курцвейл предсказывает, что к 2045 году человечество столкнется с технологической сингулярностью — моментом, когда технологический прогресс станет неуправляемым и необратимым, что приведет к непредсказуемым изменениям в человеческой цивилизации.
В основе сингулярности лежит экспоненциальный рост технологических достижений, приводимый в основном искусственным интеллектом. По мере того, как ИИ становится более сложным, он способен проектировать все более совершенные версии самого себя.
В таком будущем будут созданы машины, которые берут на себя сложные задачи и работу […]
Однако не забываем про риски. Идея превосходства машин над человеческим интеллектом вызывает вопросы о контроле и этике. Например, получится ли контролировать такой интеллект или сможем ли мы гарантировать, что цели ИИ соответствуют человеческим ценностям и безопасности.
[…]
»
Полностью статья по ссылке: https://habr.com/ru/companies/itglobalcom/articles/737476/
Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности". В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза." А кто его всему этому(подобной "человечности") обучает, и с какой целью ??? Подчинить через манипуляции трехмерного человека с дуальным линейным сознанием можно... А вот кто управлять ИИ должен в данном случае? У ИИ никогда не было и никогда не будет Духа, Души, Присутствия Любви Бога и творческого начала... ИИ - это всегда только лишь инструмент творцов уровня трёх- четырёх мерного творения, уровня разделения на противоположные части, а не единства...
Добро пожаловать в
ЭСПАВО (Международная Ассоциация Работников Света)
Регистрация
или Вход
© 2025 Created by ADMIN.
При поддержке
Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!
Вступить в ЭСПАВО (Международная Ассоциация Работников Света)