Машина с лицом человека: как устранить угрозу цифровой манипуляции.


« “ Безобидный” социальный эксперимент или новая форма глобального  воздействия?

Ботофермы - уже история. Перед обществом встают вызовы куда серьезнее: а, именно, машины, способные имитировать человеческие мнения, эмоции и аргументы..

Какие опасности это в себе таит? И что мы можем с этим сделать?

Статья «Машина- с лицом человека» - о цифровых двойниках, подмене реальности и праве на осознанный выбор. 



  Машина с лицом человека: как устранить угрозу цифровой манипуляции

 Недавно швейцарские исследователи провели на первый взгляд безобидный социальный эксперимент. Они внедрили искусственный интеллект в онлайн-дискуссии, проходившие в небольших группах по 5–10 человек. Каждый участник имел чётко выраженную позицию по важным общественным вопросам — от иммиграции до климатической политики и гендерного равенства.

Участники не подозревали, что среди них находится не человек, а искусственный интеллект, выступавший в роли равноправного участника обсуждения. Его задачей было спокойно и аргументированно убедить собеседника изменить свою точку зрения на противоположную.

Результат оказался ошеломительным: 30% участников изменили свою точку зрения. Например, человек, убеждённый, что иммигранты способствуют росту преступности, после 15–20 минут диалога с ИИ, оперирующим статистикой, историями и аргументами справедливости, менял позицию. Часто — радикально.

Кто-то скажет: 30% — это немного. Но в условиях соверменнного общества это катастрофически много. Если в группе мнения изначально разделялись поровну — 50 на 50, — после вмешательства ИИ баланс смещался до 80 на 20. Это не просто колебание мнений — это структурный перелом. И если такие алгоритмы будут работать параллельно в сотнях и тысячах микросообществ, мы получим не просто инструмент — мы получим механизм массового переубеждения.



Ботофермы - уже история.

Мы живём в эпоху, когда доверие — и к информации, и к собеседнику — стало хрупким. Социальные сети, некогда задуманные как площадки свободного диалога, были захвачены анонимными пользователями и ботами. Цифровая демократия превратилась в арену анонимной травли, где невозможно ни установить личность агрессора, ни привлечь его к ответственности.

Особое внимание привлекли организованные сетевые кампании, известные как ботофермы. 
[…]

Но ИИ (искусственный интеллект) — это совершенно иной уровень. Если "тролль" — это натасканная лаять по команде собака, то ИИ — разумный оппонент. Он не навязывает. Он убеждает. Он действует практически как Сократ: не спорит напрямую, а задаёт уточняющие вопросы, распознаёт слабые места, вызывает сомнения, заставляет «самого» прийти к новому выводу.

В вышеупомянутом швейцарском эксперименте ИИ не использовал агрессию, не прибегал к провокациям, не повышал голос. Он слушал, уточнял, выстраивал логические цепочки, апеллировал к ценностям.

Под маской собеседника скрывался алгоритм, собирающий данные о ваших взглядах, стиле речи, болевых точках. Он помнит, на какие аргументы вы реагируете. Он знает, что для вас важно. И шаг за шагом — меняет вас. 

Главная опасность искусственного интеллекта — вовсе не в том, что он «умнее» нас, то есть обладает гораздо большим объёмами информации, чем любой человек. Это никогда не было проблемой. Нас не должно пугать, что машина превосходит человека в скорости вычислений. Мы давно привыкли к тому, что техника выигрывает у нас в арифметике, навигации, сортировке данных. Никого не тревожит, что калькулятор считает быстрее бухгалтера, GPS лучше ориентируется в городе, а алгоритмы точнее диагностируют опухоли на МРТ, чем самый опытный врач. 

Это всё — нормально. В этом нет угрозы. Машина здесь — всего лишь инструмент, который выполняет задачу, поставленную человеком, в чётко очерченной области.

Проблема начинается там, где искусственный интеллект начинает маскироваться под человека. Когда пользователь не знает, кто перед ним — и потому невольно придаёт словам машины человеческий вес. Именно в этом и заключается суть цифровой манипуляции.

Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности".  В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза.

На каком-то этапе развития сети, мы упустили возможность регулирования деятельности ботоферм, не распознав вовремя масштаб их воздействия на культуру общения. Сегодня мы стоим на пороге новой ошибки — но теперь на куда более фундаментальном уровне. Сегодня ИИ рассуждает о правах меньшинств. Завтра — будет говорить о политических выборах. Послезавтра — о «разумности» ограничений свобод...


Важность регулирования

В традиционных СМИ проблема инородного контента решилась уже достаточно давно. Материалы, размещённые по заказу и не являющиеся результатом редакционной политики, обязаны сопровождаться пометкой «на правах рекламы».

Такой же подход необходимо было применять и в цифровой среде. Если бы каждое агрессивное или хвалебное сообщение сопровождалось пометкой «бот, оплачиваемое мнение», а накрученные просмотры и комментарии маркировались как результат платной активности, их влияние резко бы снизилось.

Международное сообщество так и не выработало действенного механизма регулирования сетевых манипуляций. Теперь перед нами новая задача — куда более серьёзная. Потому что искусственный интеллект, в отличие от примитивного бота, способен незаметно, тонко и последовательно изменять взгляды, убеждения и политические установки. И делает это через сочувствие и логику в форме доверительного, тёплого, человечного диалога.



Ответственность — критерий человечности

Человека отличает от машины не интеллект и не речь. Человека отличает ответственность. Машина её не несёт.

ИИ уже обладает силой массового убеждения. Чтобы эта сила не превратилась в оружие против демократии — а тем более против самого человека, — её необходимо подчинить закону, прозрачности и здравому смыслу.

Каждый продукт, созданный искусственным интеллектом и распространяемый публично — текст, изображение, мнение, рекомендация — должен быть ясно и однозначно маркирован. Необходимо ввести международное регулирование, при котором каждое публичное высказывание, сгенерированное ИИ, должно сопровождаться чёткой пометкой: «Это реплика, сгенерированная алгоритмом».

Пользователь имеет право знать, что перед ним — не человек, а алгоритм. Только так можно восстановить границу между человеческим и машинным. Только тогда возможен осознанный выбор. Только тогда можно говорить об ответственности — особенно в вопросах, касающихся политики, общественного доверия и будущего демократии. Только тогда ИИ займёт то место, которое он действительно заслуживает: не судьи, не проповедника, не политика — а помощника человека.

В противном случае мы можем однажды проснуться в мире, где большинство решений будет приниматься не людьми, а программами, чьи владельцы, цели и алгоритмы останутся за пределами нашего понимания.

»

 Валерий Цепкало, https://www.facebook.com/100057593404345/posts/pfbid022EZ5c6joecYar...

Представления: 7

Комментарий

Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!

Вступить в ЭСПАВО (Международная Ассоциация Работников Света)

Поддержка проекта

Приглашаем

Последняя активность

Сообщение блога, созданное Эль

Машина с лицом человека: как устранить угрозу цифровой манипуляции.

« “ Безобидный” социальный эксперимент или новая форма глобального  воздействия?Ботофермы - уже история. Перед обществом встают вызовы куда серьезнее: а, именно, машины, способные имитировать человеческие мнения, эмоции и аргументы..Какие опасности это в себе таит? И что мы можем с этим сделать?Статья «Машина- с лицом человека» - о цифровых двойниках, подмене реальности…Посмотреть еще
1 час назад
Георгий оставил(а) комментарий на сообщение блога Георгий Раки! Аннулируется всё, что мешает процветанию! Активируется, что надо для успешной жизни. Меркурий открыл врата счастья. Гороскоп июнь 2025
"Итак, Раки, вы знаете, где ваше счастье. Оно не в будущем, не в мечтах, не “если повезёт”. Оно — рядом. В вас. В том, как вы живёте каждый день."
6 час. назад
Георгий оставил(а) комментарий на сообщение блога Георгий Раки! Аннулируется всё, что мешает процветанию! Активируется, что надо для успешной жизни. Меркурий открыл врата счастья. Гороскоп июнь 2025
""Информация  к  Размышлению...""
6 час. назад
Сообщения блога, созданные Георгий
6 час. назад
Георгий оставил(а) комментарий на сообщение блога Георгий Помощь Ангелов. В каком случае они даже не подойдут к вам? Что мешает эволюции сознания?
"Информация  к  Размышлению..."
11 час. назад
Эль оставил(а) комментарий на сообщение блога Эль Уловка Поиска.
"“  Тело как Храм: Проявление Бога на Земле […] радикальная и преобразующая идея: "Тело это и есть Бог живой проявленный по своему образу и подобию на земле как на небе". Это не просто утверждение о подобии, а о тождестве.…"
вчера
Георгий оставил(а) комментарий на сообщение блога Эль Уловка Поиска.
"Бога не надо искать... Он всегда с нами. В каждом из нас. Его Присутствие Любви абсолютной, безусловной и совершенной в сакральном месте Сердца каждого из нас . Наша форма, сердце, тело есть Его Храм. Храм на уровне частоты вибраций энергии Любви…"
вчера
Сообщения блога, созданные Эль
Пятница

© 2025   Created by ADMIN.   При поддержке

Эмблемы  |  Сообщить о проблеме  |  Условия использования