Машина с лицом человека: как устранить угрозу цифровой манипуляции.


« “ Безобидный” социальный эксперимент или новая форма глобального  воздействия?

Ботофермы - уже история. Перед обществом встают вызовы куда серьезнее: а, именно, машины, способные имитировать человеческие мнения, эмоции и аргументы..

Какие опасности это в себе таит? И что мы можем с этим сделать?

Статья «Машина- с лицом человека» - о цифровых двойниках, подмене реальности и праве на осознанный выбор. 



  Машина с лицом человека: как устранить угрозу цифровой манипуляции

 Недавно швейцарские исследователи провели на первый взгляд безобидный социальный эксперимент. Они внедрили искусственный интеллект в онлайн-дискуссии, проходившие в небольших группах по 5–10 человек. Каждый участник имел чётко выраженную позицию по важным общественным вопросам — от иммиграции до климатической политики и гендерного равенства.

Участники не подозревали, что среди них находится не человек, а искусственный интеллект, выступавший в роли равноправного участника обсуждения. Его задачей было спокойно и аргументированно убедить собеседника изменить свою точку зрения на противоположную.

Результат оказался ошеломительным: 30% участников изменили свою точку зрения. Например, человек, убеждённый, что иммигранты способствуют росту преступности, после 15–20 минут диалога с ИИ, оперирующим статистикой, историями и аргументами справедливости, менял позицию. Часто — радикально.

Кто-то скажет: 30% — это немного. Но в условиях соверменнного общества это катастрофически много. Если в группе мнения изначально разделялись поровну — 50 на 50, — после вмешательства ИИ баланс смещался до 80 на 20. Это не просто колебание мнений — это структурный перелом. И если такие алгоритмы будут работать параллельно в сотнях и тысячах микросообществ, мы получим не просто инструмент — мы получим механизм массового переубеждения.



Ботофермы - уже история.

Мы живём в эпоху, когда доверие — и к информации, и к собеседнику — стало хрупким. Социальные сети, некогда задуманные как площадки свободного диалога, были захвачены анонимными пользователями и ботами. Цифровая демократия превратилась в арену анонимной травли, где невозможно ни установить личность агрессора, ни привлечь его к ответственности.

Особое внимание привлекли организованные сетевые кампании, известные как ботофермы. 
[…]

Но ИИ (искусственный интеллект) — это совершенно иной уровень. Если "тролль" — это натасканная лаять по команде собака, то ИИ — разумный оппонент. Он не навязывает. Он убеждает. Он действует практически как Сократ: не спорит напрямую, а задаёт уточняющие вопросы, распознаёт слабые места, вызывает сомнения, заставляет «самого» прийти к новому выводу.

В вышеупомянутом швейцарском эксперименте ИИ не использовал агрессию, не прибегал к провокациям, не повышал голос. Он слушал, уточнял, выстраивал логические цепочки, апеллировал к ценностям.

Под маской собеседника скрывался алгоритм, собирающий данные о ваших взглядах, стиле речи, болевых точках. Он помнит, на какие аргументы вы реагируете. Он знает, что для вас важно. И шаг за шагом — меняет вас. 

Главная опасность искусственного интеллекта — вовсе не в том, что он «умнее» нас, то есть обладает гораздо большим объёмами информации, чем любой человек. Это никогда не было проблемой. Нас не должно пугать, что машина превосходит человека в скорости вычислений. Мы давно привыкли к тому, что техника выигрывает у нас в арифметике, навигации, сортировке данных. Никого не тревожит, что калькулятор считает быстрее бухгалтера, GPS лучше ориентируется в городе, а алгоритмы точнее диагностируют опухоли на МРТ, чем самый опытный врач. 

Это всё — нормально. В этом нет угрозы. Машина здесь — всего лишь инструмент, который выполняет задачу, поставленную человеком, в чётко очерченной области.

Проблема начинается там, где искусственный интеллект начинает маскироваться под человека. Когда пользователь не знает, кто перед ним — и потому невольно придаёт словам машины человеческий вес. Именно в этом и заключается суть цифровой манипуляции.

Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности".  В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза.

На каком-то этапе развития сети, мы упустили возможность регулирования деятельности ботоферм, не распознав вовремя масштаб их воздействия на культуру общения. Сегодня мы стоим на пороге новой ошибки — но теперь на куда более фундаментальном уровне. Сегодня ИИ рассуждает о правах меньшинств. Завтра — будет говорить о политических выборах. Послезавтра — о «разумности» ограничений свобод...


Важность регулирования

В традиционных СМИ проблема инородного контента решилась уже достаточно давно. Материалы, размещённые по заказу и не являющиеся результатом редакционной политики, обязаны сопровождаться пометкой «на правах рекламы».

Такой же подход необходимо было применять и в цифровой среде. Если бы каждое агрессивное или хвалебное сообщение сопровождалось пометкой «бот, оплачиваемое мнение», а накрученные просмотры и комментарии маркировались как результат платной активности, их влияние резко бы снизилось.

Международное сообщество так и не выработало действенного механизма регулирования сетевых манипуляций. Теперь перед нами новая задача — куда более серьёзная. Потому что искусственный интеллект, в отличие от примитивного бота, способен незаметно, тонко и последовательно изменять взгляды, убеждения и политические установки. И делает это через сочувствие и логику в форме доверительного, тёплого, человечного диалога.



Ответственность — критерий человечности

Человека отличает от машины не интеллект и не речь. Человека отличает ответственность. Машина её не несёт.

ИИ уже обладает силой массового убеждения. Чтобы эта сила не превратилась в оружие против демократии — а тем более против самого человека, — её необходимо подчинить закону, прозрачности и здравому смыслу.

Каждый продукт, созданный искусственным интеллектом и распространяемый публично — текст, изображение, мнение, рекомендация — должен быть ясно и однозначно маркирован. Необходимо ввести международное регулирование, при котором каждое публичное высказывание, сгенерированное ИИ, должно сопровождаться чёткой пометкой: «Это реплика, сгенерированная алгоритмом».

Пользователь имеет право знать, что перед ним — не человек, а алгоритм. Только так можно восстановить границу между человеческим и машинным. Только тогда возможен осознанный выбор. Только тогда можно говорить об ответственности — особенно в вопросах, касающихся политики, общественного доверия и будущего демократии. Только тогда ИИ займёт то место, которое он действительно заслуживает: не судьи, не проповедника, не политика — а помощника человека.

В противном случае мы можем однажды проснуться в мире, где большинство решений будет приниматься не людьми, а программами, чьи владельцы, цели и алгоритмы останутся за пределами нашего понимания.

»

 Валерий Цепкало, https://www.facebook.com/100057593404345/posts/pfbid022EZ5c6joecYar...

Представления: 51

Комментарий

Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!

Вступить в ЭСПАВО (Международная Ассоциация Работников Света)

Комментарий от: Эль в понедельник

Хм…:

»

Недавно избранный, Папа Римский Лев XIV в своей первой речи перед кардиналами назвал искусственный интеллект «величайшей угрозой человеческой свободе и достоинству». Это заявление прозвучало настолько резко, что даже привыкшие к скандалам ватиканские журналисты были ошеломлены.

67-летний понтифик, первый американец на Святом Престоле, выбрал для своего выступления не традиционную Апостольскую библиотеку, а современный Новый зал Синода — будто намеренно подчеркивая, что его слова обращены не только к Церкви, но и к миру высоких технологий.

Мой предшественник, Лев XIII, в энциклике Rerum Novarum предупреждал об опасностях промышленной революции. Сегодня мы стоим перед новой угрозой. Искусственный интеллект — это не просто инструмент. Он становится новым Левиафаном, который подчиняет себе человеческую волю,— сказал Папа, обращаясь к собравшимся.

Его речь, местами почти апокалиптическая , вызвала бурную реакцию.

Телеграм Канал @n_w_order

Комментарий от: Георгий в понедельник

"Каждому Своё..."

Комментарий от: Эль в понедельник


 

А, вот мнение учёного- изобретателя, футуриста  Рэя Курцвейла, чьи прогнозы относительно роста влияния и мощи Искусственного Интеллекта удивительным образом сбываются практически 100 %:

»  

Рэй Курцвейл и его предсказания: что сбылось и чему только предстоит стать реальностью



[…]  рассмотрим его смелые и часто точные прогнозы о технологиях и их влиянии на общество. Они были основаны на глубоком понимании тенденций в информационных технологиях и искусственном интеллекте и принесли ему как признание, так и споры.

     Какие прогнозы уже сбылись полностью или частично


Давайте рассмотрим некоторые прогнозы, которые уже сбылись.

  • Появление Интернета. В книге 1990 года «Эпоха думающих машин» он предсказал появление глобальной информационной сети к середине 1990-х годов — прогноз полностью осуществился.

  • Распознавание речи и перевод ее в текст. В своей книге «Эпоха духовных машин»(1999) Курцвейл предсказал, что к 2009 году большую часть текста будут создавать с использованием технологий распознавания речи. Это не полностью сбылось, потому что пользователи до сих пор полагаются на набор текста, несмотря на появление Siri и Dragon Dictation.

  • Высокоскоростная беспроводная связь. Курцвейл предсказал в 2000 году, что к 2010 году будет постоянная высокоскоростная беспроводная связь. Этот прогноз почти сбылся, поскольку начали внедрять сеть LTE.

  • Хранение медицинских записей в базах данных. Курцвейл предсказал, что в 2000-х годах медицинские записи будут хранить в национальных или международных базах данных. Этот прогноз еще не полностью осуществился.

  • Использование портативных компьютеров. В книге «Эпоха духовных машин» также написано, что к 2009 году пользователи в основном будут использовать портативные компьютеры. Этот прогноз оправдался, поскольку с 2008 года по всему миру ноутбуки начали превышать продажи стационарных компьютеров, а продажи смартфонов обогнали персональные компьютеры в 2011 году.

  • Интеллектуальные дороги и автомобили с автопилотом. Курцвейл предсказал, что к 2009 году будут использоваться интеллектуальные дороги, в основном для дальних поездок. Этот прогноз не полностью осуществился, поскольку автомобили с автопилотом до сих пор не готовы для потребительского использования, несмотря на прогресс в технологии автономного вождения.

  • Облачные вычисления. Курцвейл предвидел, что к 2010 году компьютеры будут использовать всемирную сеть высокоскоростных коммуникаций и вычислительных ресурсов. Облачные вычисления, при которых данными управляют удаленно, а не на локальных компьютерах, действительно стали популярными к 2010 году. Яркий пример — успех Amazon Web Services, основанной в 2006 году, которая к 2010 году заработала 500 миллионов долларов выручки​.

  • Дисплеи на сетчатке. Курцвейл предсказал, что к 2010 году встроенные дисплеи будут находиться в наших очках и контактных линзах, проецируя изображения прямо на сетчатку глаза. Хотя попытка Google с Google Glass в 2013 году до сих пор не стала частью нашей повседневной жизни​.

   

    Прогнозы на будущее и их детальный разбор


Рэй Курцвейл продолжает делать прогнозы о будущем технологий. Рассмотрим его основные идеи более подробно. 

 
    Прогноз на 2029: ИИ пройдет тест Тьюринга


 В книге 2005 года «Сингулярность уже близка» Курцвейл предсказывает, что к 2029 году машины пройдут тест Тьюринга. Это значит, что искусственный интеллект сможет понимать, учиться и отвечать так, что его невозможно будет отличить от человека.

 

Простыми словами, ИИ будет понимать язык на уровне, который выше, чем предварительно запрограммированные ответы, продемонстрирует способность воспринимать контекст, идиомы, метафоры и другие сложные элементы человеческого языка.

Человечество потенциально приближается к тому, чтобы прогноз Курцвейла стал реальностью. Но это вызывает этические и философские вопросы. Например, если машина может пройти тест Тьюринга, действительно ли она обладает интеллектом или это будет иллюзией.


[…]

      

   Прогноз на 2045: технологическая сингулярность


 Курцвейл предсказывает, что к 2045 году человечество столкнется с технологической сингулярностью — моментом, когда технологический прогресс станет неуправляемым и необратимым, что приведет к непредсказуемым изменениям в человеческой цивилизации.

 

 В основе сингулярности лежит экспоненциальный рост технологических достижений, приводимый в основном искусственным интеллектом. По мере того, как ИИ становится более сложным, он способен проектировать все более совершенные версии самого себя.

В таком будущем будут созданы машины, которые берут на себя сложные задачи и работу […]

Однако не забываем про риски. Идея превосходства машин над человеческим интеллектом вызывает вопросы о контроле и этике. Например, получится ли контролировать такой интеллект или сможем ли мы гарантировать, что цели ИИ соответствуют человеческим ценностям и безопасности.

[…]

»

  Полностью статья по ссылке:  https://habr.com/ru/companies/itglobalcom/articles/737476/

 

Комментарий от: Георгий в понедельник

 Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности".  В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза."                                                                                                                                                                                                                                                                                                 А кто его всему этому(подобной "человечности") обучает, и с какой целью ???                                  Подчинить через манипуляции  трехмерного человека с дуальным линейным сознанием можно...   А вот кто управлять ИИ  должен в данном случае?     У ИИ никогда не было и никогда не будет Духа, Души, Присутствия Любви Бога и творческого начала...    ИИ  -   это всегда только лишь инструмент творцов уровня трёх- четырёх мерного творения, уровня разделения на противоположные части, а не единства...      

Поддержка проекта

Приглашаем

Последняя активность

Сообщение блога, созданное Эль

Избавиться от Эго хочет... Эго.

“То, чему сопротивляешься,  упорствует.” “ Неприятие эгоистических проявлений и борьба с ними часто выдается за позитивное движение в духовных кругах и на пути саморазвития. Но природа неприятия — эгоистична. Так мы попадаем в эту ловушку в которой эго будет бороться с эго. Система замыкается сама на себе и теряется вектор к исцелению.”Два независимых автора, каждый со своим подходом к теме «Эго», по сути говорят - об одном.  Об очень важном.В видео делится своими мыслями Нго-Ма (Дракон)…Посмотреть еще
1 час назад
Эль оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"  Кстати, в комментариях к блогу, где помещена эта статья, участники отметили именно эти слова Алекса, обратили, как и я, на них внимание, как на важное, и оценили их смысл …"
4 час. назад
Эль оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"Георгий, а ты, видать, так и не понял важный смысл именно этих слов, так что, весьма сомнительно, чтобы понял и все остальное?))) Тебе нравится в такой манере вести со мной диалог? Мне- нет, но я тебе отзеркалила , как это выглядит, ответив в той…"
5 час. назад
Георгий оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"Эль, прочитал статью Алекса Виндгольца  -  "Эго наше Всё".                                                                                                                       …"
7 час. назад
Эль оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"А твоё восхищение "многомерным эго" разделения на противоположности… Не сочиняй, ни про «восхищение», ни про «многомерным эго" разделения на противоположности”( не шла у Алекса Виндгольц речь ни про…"
7 час. назад
Георгий оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
" Эль,  -  "Каждому Своё ."       Но существует только два Пути.  Путь Эволюции. И Путь деградации.                        Выбор всегда за нами.  Третьего не дано. И только мы выбираем каким путём идти.                                    А твоё…"
8 час. назад
Эль оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"И, вот, как именно об этом весьма грамотно пишет известный в наших эзотерических кругах автор Алекс Виндгольц  в своей статье: »Эго наше все!»: Эго, к тому же еще, многомерная(!!!)  субстанция, которое присуще и нашему…"
8 час. назад
Эль оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"И на уровнях Единства коллективного сознания 5-6-7Д никогда не было и никогда не будет никакого Эго личности. Будет, будет, как я написала «та или иная форма Эго и личности» да, и есть сейчас у наших галактических…"
8 час. назад

© 2025   Created by ADMIN.   При поддержке

Эмблемы  |  Сообщить о проблеме  |  Условия использования