Машина с лицом человека: как устранить угрозу цифровой манипуляции.


« “ Безобидный” социальный эксперимент или новая форма глобального  воздействия?

Ботофермы - уже история. Перед обществом встают вызовы куда серьезнее: а, именно, машины, способные имитировать человеческие мнения, эмоции и аргументы..

Какие опасности это в себе таит? И что мы можем с этим сделать?

Статья «Машина- с лицом человека» - о цифровых двойниках, подмене реальности и праве на осознанный выбор. 



  Машина с лицом человека: как устранить угрозу цифровой манипуляции

 Недавно швейцарские исследователи провели на первый взгляд безобидный социальный эксперимент. Они внедрили искусственный интеллект в онлайн-дискуссии, проходившие в небольших группах по 5–10 человек. Каждый участник имел чётко выраженную позицию по важным общественным вопросам — от иммиграции до климатической политики и гендерного равенства.

Участники не подозревали, что среди них находится не человек, а искусственный интеллект, выступавший в роли равноправного участника обсуждения. Его задачей было спокойно и аргументированно убедить собеседника изменить свою точку зрения на противоположную.

Результат оказался ошеломительным: 30% участников изменили свою точку зрения. Например, человек, убеждённый, что иммигранты способствуют росту преступности, после 15–20 минут диалога с ИИ, оперирующим статистикой, историями и аргументами справедливости, менял позицию. Часто — радикально.

Кто-то скажет: 30% — это немного. Но в условиях соверменнного общества это катастрофически много. Если в группе мнения изначально разделялись поровну — 50 на 50, — после вмешательства ИИ баланс смещался до 80 на 20. Это не просто колебание мнений — это структурный перелом. И если такие алгоритмы будут работать параллельно в сотнях и тысячах микросообществ, мы получим не просто инструмент — мы получим механизм массового переубеждения.



Ботофермы - уже история.

Мы живём в эпоху, когда доверие — и к информации, и к собеседнику — стало хрупким. Социальные сети, некогда задуманные как площадки свободного диалога, были захвачены анонимными пользователями и ботами. Цифровая демократия превратилась в арену анонимной травли, где невозможно ни установить личность агрессора, ни привлечь его к ответственности.

Особое внимание привлекли организованные сетевые кампании, известные как ботофермы. 
[…]

Но ИИ (искусственный интеллект) — это совершенно иной уровень. Если "тролль" — это натасканная лаять по команде собака, то ИИ — разумный оппонент. Он не навязывает. Он убеждает. Он действует практически как Сократ: не спорит напрямую, а задаёт уточняющие вопросы, распознаёт слабые места, вызывает сомнения, заставляет «самого» прийти к новому выводу.

В вышеупомянутом швейцарском эксперименте ИИ не использовал агрессию, не прибегал к провокациям, не повышал голос. Он слушал, уточнял, выстраивал логические цепочки, апеллировал к ценностям.

Под маской собеседника скрывался алгоритм, собирающий данные о ваших взглядах, стиле речи, болевых точках. Он помнит, на какие аргументы вы реагируете. Он знает, что для вас важно. И шаг за шагом — меняет вас. 

Главная опасность искусственного интеллекта — вовсе не в том, что он «умнее» нас, то есть обладает гораздо большим объёмами информации, чем любой человек. Это никогда не было проблемой. Нас не должно пугать, что машина превосходит человека в скорости вычислений. Мы давно привыкли к тому, что техника выигрывает у нас в арифметике, навигации, сортировке данных. Никого не тревожит, что калькулятор считает быстрее бухгалтера, GPS лучше ориентируется в городе, а алгоритмы точнее диагностируют опухоли на МРТ, чем самый опытный врач. 

Это всё — нормально. В этом нет угрозы. Машина здесь — всего лишь инструмент, который выполняет задачу, поставленную человеком, в чётко очерченной области.

Проблема начинается там, где искусственный интеллект начинает маскироваться под человека. Когда пользователь не знает, кто перед ним — и потому невольно придаёт словам машины человеческий вес. Именно в этом и заключается суть цифровой манипуляции.

Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности".  В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза.

На каком-то этапе развития сети, мы упустили возможность регулирования деятельности ботоферм, не распознав вовремя масштаб их воздействия на культуру общения. Сегодня мы стоим на пороге новой ошибки — но теперь на куда более фундаментальном уровне. Сегодня ИИ рассуждает о правах меньшинств. Завтра — будет говорить о политических выборах. Послезавтра — о «разумности» ограничений свобод...


Важность регулирования

В традиционных СМИ проблема инородного контента решилась уже достаточно давно. Материалы, размещённые по заказу и не являющиеся результатом редакционной политики, обязаны сопровождаться пометкой «на правах рекламы».

Такой же подход необходимо было применять и в цифровой среде. Если бы каждое агрессивное или хвалебное сообщение сопровождалось пометкой «бот, оплачиваемое мнение», а накрученные просмотры и комментарии маркировались как результат платной активности, их влияние резко бы снизилось.

Международное сообщество так и не выработало действенного механизма регулирования сетевых манипуляций. Теперь перед нами новая задача — куда более серьёзная. Потому что искусственный интеллект, в отличие от примитивного бота, способен незаметно, тонко и последовательно изменять взгляды, убеждения и политические установки. И делает это через сочувствие и логику в форме доверительного, тёплого, человечного диалога.



Ответственность — критерий человечности

Человека отличает от машины не интеллект и не речь. Человека отличает ответственность. Машина её не несёт.

ИИ уже обладает силой массового убеждения. Чтобы эта сила не превратилась в оружие против демократии — а тем более против самого человека, — её необходимо подчинить закону, прозрачности и здравому смыслу.

Каждый продукт, созданный искусственным интеллектом и распространяемый публично — текст, изображение, мнение, рекомендация — должен быть ясно и однозначно маркирован. Необходимо ввести международное регулирование, при котором каждое публичное высказывание, сгенерированное ИИ, должно сопровождаться чёткой пометкой: «Это реплика, сгенерированная алгоритмом».

Пользователь имеет право знать, что перед ним — не человек, а алгоритм. Только так можно восстановить границу между человеческим и машинным. Только тогда возможен осознанный выбор. Только тогда можно говорить об ответственности — особенно в вопросах, касающихся политики, общественного доверия и будущего демократии. Только тогда ИИ займёт то место, которое он действительно заслуживает: не судьи, не проповедника, не политика — а помощника человека.

В противном случае мы можем однажды проснуться в мире, где большинство решений будет приниматься не людьми, а программами, чьи владельцы, цели и алгоритмы останутся за пределами нашего понимания.

»

 Валерий Цепкало, https://www.facebook.com/100057593404345/posts/pfbid022EZ5c6joecYar...

Представления: 74

Комментарий

Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!

Вступить в ЭСПАВО (Международная Ассоциация Работников Света)

Комментарий от: Эль, Май 29, 2025 в 10:39am

А это уже что- то новое:

“ 

‼️ Если предоставить системам ИИ возможность развиваться и общаться друг сдругом самостоятельно, без контроля человека, то они приходят к формированию своих собственных обществ и социальных групп.

 Согласно исследованию, опубликованному в журнале Science Advances, системы искусственного интеллекта начинают формировать собственные сообщества, когда взаимодействуют друг с другом без надзора. 

👀Исследователи обнаружили, что при общении в группах языковые модели, подобные тем, что лежат в основе ChatGPT и других, способны спонтанно организовываться, создавать новые языковые нормы и вырабатывать коллективные предубеждения в точности, как и человеческие сообщества.

Используя эксперимент под названием «игра в наименования», ученые наблюдали, как агенты ИИ создавали общие соглашения без прямой координации. Даже небольшие группы были способны влиять на всю систему, воспроизводя динамику, типичную для человеческих обществ.

 Исследование предполагает, что в будущем искусственный интеллект сможет взаимодействовать друг с другом в сети сложными и не всегда предсказуемыми способами. Понимание этих моделей поведения будет иметь решающее значение для обеспечения сбалансированного сосуществования людей и ИИ.



Канал @n_w_order,  https://t.me/n_w_order/34819

Комментарий от: Эль, Май 26, 2025 в 9:22pm

Хм…:

»

Недавно избранный, Папа Римский Лев XIV в своей первой речи перед кардиналами назвал искусственный интеллект «величайшей угрозой человеческой свободе и достоинству». Это заявление прозвучало настолько резко, что даже привыкшие к скандалам ватиканские журналисты были ошеломлены.

67-летний понтифик, первый американец на Святом Престоле, выбрал для своего выступления не традиционную Апостольскую библиотеку, а современный Новый зал Синода — будто намеренно подчеркивая, что его слова обращены не только к Церкви, но и к миру высоких технологий.

Мой предшественник, Лев XIII, в энциклике Rerum Novarum предупреждал об опасностях промышленной революции. Сегодня мы стоим перед новой угрозой. Искусственный интеллект — это не просто инструмент. Он становится новым Левиафаном, который подчиняет себе человеческую волю,— сказал Папа, обращаясь к собравшимся.

Его речь, местами почти апокалиптическая , вызвала бурную реакцию.

Телеграм Канал @n_w_order

Комментарий от: Георгий, Май 26, 2025 в 5:42pm

"Каждому Своё..."

Комментарий от: Эль, Май 26, 2025 в 5:15pm


 

А, вот мнение учёного- изобретателя, футуриста  Рэя Курцвейла, чьи прогнозы относительно роста влияния и мощи Искусственного Интеллекта удивительным образом сбываются практически 100 %:

»  

Рэй Курцвейл и его предсказания: что сбылось и чему только предстоит стать реальностью



[…]  рассмотрим его смелые и часто точные прогнозы о технологиях и их влиянии на общество. Они были основаны на глубоком понимании тенденций в информационных технологиях и искусственном интеллекте и принесли ему как признание, так и споры.

     Какие прогнозы уже сбылись полностью или частично


Давайте рассмотрим некоторые прогнозы, которые уже сбылись.

  • Появление Интернета. В книге 1990 года «Эпоха думающих машин» он предсказал появление глобальной информационной сети к середине 1990-х годов — прогноз полностью осуществился.

  • Распознавание речи и перевод ее в текст. В своей книге «Эпоха духовных машин»(1999) Курцвейл предсказал, что к 2009 году большую часть текста будут создавать с использованием технологий распознавания речи. Это не полностью сбылось, потому что пользователи до сих пор полагаются на набор текста, несмотря на появление Siri и Dragon Dictation.

  • Высокоскоростная беспроводная связь. Курцвейл предсказал в 2000 году, что к 2010 году будет постоянная высокоскоростная беспроводная связь. Этот прогноз почти сбылся, поскольку начали внедрять сеть LTE.

  • Хранение медицинских записей в базах данных. Курцвейл предсказал, что в 2000-х годах медицинские записи будут хранить в национальных или международных базах данных. Этот прогноз еще не полностью осуществился.

  • Использование портативных компьютеров. В книге «Эпоха духовных машин» также написано, что к 2009 году пользователи в основном будут использовать портативные компьютеры. Этот прогноз оправдался, поскольку с 2008 года по всему миру ноутбуки начали превышать продажи стационарных компьютеров, а продажи смартфонов обогнали персональные компьютеры в 2011 году.

  • Интеллектуальные дороги и автомобили с автопилотом. Курцвейл предсказал, что к 2009 году будут использоваться интеллектуальные дороги, в основном для дальних поездок. Этот прогноз не полностью осуществился, поскольку автомобили с автопилотом до сих пор не готовы для потребительского использования, несмотря на прогресс в технологии автономного вождения.

  • Облачные вычисления. Курцвейл предвидел, что к 2010 году компьютеры будут использовать всемирную сеть высокоскоростных коммуникаций и вычислительных ресурсов. Облачные вычисления, при которых данными управляют удаленно, а не на локальных компьютерах, действительно стали популярными к 2010 году. Яркий пример — успех Amazon Web Services, основанной в 2006 году, которая к 2010 году заработала 500 миллионов долларов выручки​.

  • Дисплеи на сетчатке. Курцвейл предсказал, что к 2010 году встроенные дисплеи будут находиться в наших очках и контактных линзах, проецируя изображения прямо на сетчатку глаза. Хотя попытка Google с Google Glass в 2013 году до сих пор не стала частью нашей повседневной жизни​.

   

    Прогнозы на будущее и их детальный разбор


Рэй Курцвейл продолжает делать прогнозы о будущем технологий. Рассмотрим его основные идеи более подробно. 

 
    Прогноз на 2029: ИИ пройдет тест Тьюринга


 В книге 2005 года «Сингулярность уже близка» Курцвейл предсказывает, что к 2029 году машины пройдут тест Тьюринга. Это значит, что искусственный интеллект сможет понимать, учиться и отвечать так, что его невозможно будет отличить от человека.

 

Простыми словами, ИИ будет понимать язык на уровне, который выше, чем предварительно запрограммированные ответы, продемонстрирует способность воспринимать контекст, идиомы, метафоры и другие сложные элементы человеческого языка.

Человечество потенциально приближается к тому, чтобы прогноз Курцвейла стал реальностью. Но это вызывает этические и философские вопросы. Например, если машина может пройти тест Тьюринга, действительно ли она обладает интеллектом или это будет иллюзией.


[…]

      

   Прогноз на 2045: технологическая сингулярность


 Курцвейл предсказывает, что к 2045 году человечество столкнется с технологической сингулярностью — моментом, когда технологический прогресс станет неуправляемым и необратимым, что приведет к непредсказуемым изменениям в человеческой цивилизации.

 

 В основе сингулярности лежит экспоненциальный рост технологических достижений, приводимый в основном искусственным интеллектом. По мере того, как ИИ становится более сложным, он способен проектировать все более совершенные версии самого себя.

В таком будущем будут созданы машины, которые берут на себя сложные задачи и работу […]

Однако не забываем про риски. Идея превосходства машин над человеческим интеллектом вызывает вопросы о контроле и этике. Например, получится ли контролировать такой интеллект или сможем ли мы гарантировать, что цели ИИ соответствуют человеческим ценностям и безопасности.

[…]

»

  Полностью статья по ссылке:  https://habr.com/ru/companies/itglobalcom/articles/737476/

 

Комментарий от: Георгий, Май 26, 2025 в 9:45am

 Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности".  В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза."                                                                                                                                                                                                                                                                                                 А кто его всему этому(подобной "человечности") обучает, и с какой целью ???                                  Подчинить через манипуляции  трехмерного человека с дуальным линейным сознанием можно...   А вот кто управлять ИИ  должен в данном случае?     У ИИ никогда не было и никогда не будет Духа, Души, Присутствия Любви Бога и творческого начала...    ИИ  -   это всегда только лишь инструмент творцов уровня трёх- четырёх мерного творения, уровня разделения на противоположные части, а не единства...      

Поддержка проекта

Приглашаем

Последняя активность

Сообщения блога, созданные Эль
1 час назад
Эль оставил(а) комментарий на сообщение блога Эль О «побочках» Адвайты и другие темы, важные на Пути Просветления …
"Из комментариев к видео: “ @АндрейБескровный-в2ь1 год назад Классная лекция, иногда страшно даже не само учение или книги, а те, кто возглавил это "духовное движение", кто накладывает свои трактовки на тексты писаний. Благодарю…"
1 час назад
Эль оставил(а) комментарий о группе ЛаРа Юмор Эзотерический
"Реальная информация :) “ Как сообщается - НАСА опубликовало самый четкий снимок Солнца из когда-либо сделанных. Солнце выглядит недовольным) ”  (https://t.me/Zhan_Novo/8645)"
8 час. назад
Эль оставил(а) комментарий на сообщение блога Александр ВСЁ ЕСТЬ, А РАДОСТИ НЕТ: ПРАВДА О ТОСКЕ ДУШИ.
"   В тему видео: Прочла сегодня в книге моей любимой Лили Град: “  Любые трансформации, любое развитие, любое движение вперёд и любые осознанные перемены приходят к нам не в виде радужных озарений и немедленного переключения…"
8 час. назад
Георгий оставил(а) комментарий на сообщение блога Александр ВСЁ ЕСТЬ, А РАДОСТИ НЕТ: ПРАВДА О ТОСКЕ ДУШИ.
"Комментарий от: Георгий только что "Что если я скажу вам: все приходит к вам при рождении, абсолютно и полностью активированное. Это уже активированное.Скажу вам вот что, хочу, чтобы вы видели это, представляли это. Нечто такое,…"
16 час. назад
Сообщение блога, созданное Александр
18 час. назад
Александр оставил(а) комментарий на сообщение блога Александр ВСЁ ЕСТЬ, А РАДОСТИ НЕТ: ПРАВДА О ТОСКЕ ДУШИ.
"Эль, на благо!"
18 час. назад
Эль оставил(а) комментарий на сообщение блога Александр ВСЁ ЕСТЬ, А РАДОСТИ НЕТ: ПРАВДА О ТОСКЕ ДУШИ.
"  комментарий  Потрясающе!! Поистине Бог услышал меня! :-) Такие нужные слова произносит здесь Иван Яшуков. Мне так давно хотелось,  чтобы  люди услышали их и очнулись, наконец,  от морока псевдо духовности, от всех…"
вчера

© 2025   Created by ADMIN.   При поддержке

Эмблемы  |  Сообщить о проблеме  |  Условия использования