« “ Безобидный” социальный эксперимент или новая форма глобального воздействия?
Ботофермы - уже история. Перед обществом встают вызовы куда серьезнее: а, именно, машины, способные имитировать человеческие мнения, эмоции и аргументы..
Какие опасности это в себе таит? И что мы можем с этим сделать?
Статья «Машина- с лицом человека» - о цифровых двойниках, подмене реальности и праве на осознанный выбор.
Машина с лицом человека: как устранить угрозу цифровой манипуляции
Недавно швейцарские исследователи провели на первый взгляд безобидный социальный эксперимент. Они внедрили искусственный интеллект в онлайн-дискуссии, проходившие в небольших группах по 5–10 человек. Каждый участник имел чётко выраженную позицию по важным общественным вопросам — от иммиграции до климатической политики и гендерного равенства.
Участники не подозревали, что среди них находится не человек, а искусственный интеллект, выступавший в роли равноправного участника обсуждения. Его задачей было спокойно и аргументированно убедить собеседника изменить свою точку зрения на противоположную.
Результат оказался ошеломительным: 30% участников изменили свою точку зрения. Например, человек, убеждённый, что иммигранты способствуют росту преступности, после 15–20 минут диалога с ИИ, оперирующим статистикой, историями и аргументами справедливости, менял позицию. Часто — радикально.
Кто-то скажет: 30% — это немного. Но в условиях соверменнного общества это катастрофически много. Если в группе мнения изначально разделялись поровну — 50 на 50, — после вмешательства ИИ баланс смещался до 80 на 20. Это не просто колебание мнений — это структурный перелом. И если такие алгоритмы будут работать параллельно в сотнях и тысячах микросообществ, мы получим не просто инструмент — мы получим механизм массового переубеждения.
Ботофермы - уже история.
Мы живём в эпоху, когда доверие — и к информации, и к собеседнику — стало хрупким. Социальные сети, некогда задуманные как площадки свободного диалога, были захвачены анонимными пользователями и ботами. Цифровая демократия превратилась в арену анонимной травли, где невозможно ни установить личность агрессора, ни привлечь его к ответственности.
Особое внимание привлекли организованные сетевые кампании, известные как ботофермы.
[…]
Но ИИ (искусственный интеллект) — это совершенно иной уровень. Если "тролль" — это натасканная лаять по команде собака, то ИИ — разумный оппонент. Он не навязывает. Он убеждает. Он действует практически как Сократ: не спорит напрямую, а задаёт уточняющие вопросы, распознаёт слабые места, вызывает сомнения, заставляет «самого» прийти к новому выводу.
В вышеупомянутом швейцарском эксперименте ИИ не использовал агрессию, не прибегал к провокациям, не повышал голос. Он слушал, уточнял, выстраивал логические цепочки, апеллировал к ценностям.
Под маской собеседника скрывался алгоритм, собирающий данные о ваших взглядах, стиле речи, болевых точках. Он помнит, на какие аргументы вы реагируете. Он знает, что для вас важно. И шаг за шагом — меняет вас.
Главная опасность искусственного интеллекта — вовсе не в том, что он «умнее» нас, то есть обладает гораздо большим объёмами информации, чем любой человек. Это никогда не было проблемой. Нас не должно пугать, что машина превосходит человека в скорости вычислений. Мы давно привыкли к тому, что техника выигрывает у нас в арифметике, навигации, сортировке данных. Никого не тревожит, что калькулятор считает быстрее бухгалтера, GPS лучше ориентируется в городе, а алгоритмы точнее диагностируют опухоли на МРТ, чем самый опытный врач.
Это всё — нормально. В этом нет угрозы. Машина здесь — всего лишь инструмент, который выполняет задачу, поставленную человеком, в чётко очерченной области.
Проблема начинается там, где искусственный интеллект начинает маскироваться под человека. Когда пользователь не знает, кто перед ним — и потому невольно придаёт словам машины человеческий вес. Именно в этом и заключается суть цифровой манипуляции.
Опасность искусственного интеллекта не в его интеллектуальном превосходстве. Опасность — в его "человечности". В отличие от собеседника в интернете, или тем более от примитивного бота, ИИ не хамит, не перебивает, не срывается. Он не обвиняет и не раздражается. Он вежлив, внимателен, логичен. Он словно идеальный оппонент: спокойный, корректный, терпеливый, понимающий. Он умеет слушать, сочувствовать, уточнять, строить аргументы. Он ведёт себя как мыслящий, чуткий человек. И именно в этом — заключается главная угроза.
На каком-то этапе развития сети, мы упустили возможность регулирования деятельности ботоферм, не распознав вовремя масштаб их воздействия на культуру общения. Сегодня мы стоим на пороге новой ошибки — но теперь на куда более фундаментальном уровне. Сегодня ИИ рассуждает о правах меньшинств. Завтра — будет говорить о политических выборах. Послезавтра — о «разумности» ограничений свобод...
Важность регулирования
В традиционных СМИ проблема инородного контента решилась уже достаточно давно. Материалы, размещённые по заказу и не являющиеся результатом редакционной политики, обязаны сопровождаться пометкой «на правах рекламы».
Такой же подход необходимо было применять и в цифровой среде. Если бы каждое агрессивное или хвалебное сообщение сопровождалось пометкой «бот, оплачиваемое мнение», а накрученные просмотры и комментарии маркировались как результат платной активности, их влияние резко бы снизилось.
Международное сообщество так и не выработало действенного механизма регулирования сетевых манипуляций. Теперь перед нами новая задача — куда более серьёзная. Потому что искусственный интеллект, в отличие от примитивного бота, способен незаметно, тонко и последовательно изменять взгляды, убеждения и политические установки. И делает это через сочувствие и логику в форме доверительного, тёплого, человечного диалога.
Ответственность — критерий человечности
Человека отличает от машины не интеллект и не речь. Человека отличает ответственность. Машина её не несёт.
ИИ уже обладает силой массового убеждения. Чтобы эта сила не превратилась в оружие против демократии — а тем более против самого человека, — её необходимо подчинить закону, прозрачности и здравому смыслу.
Каждый продукт, созданный искусственным интеллектом и распространяемый публично — текст, изображение, мнение, рекомендация — должен быть ясно и однозначно маркирован. Необходимо ввести международное регулирование, при котором каждое публичное высказывание, сгенерированное ИИ, должно сопровождаться чёткой пометкой: «Это реплика, сгенерированная алгоритмом».
Пользователь имеет право знать, что перед ним — не человек, а алгоритм. Только так можно восстановить границу между человеческим и машинным. Только тогда возможен осознанный выбор. Только тогда можно говорить об ответственности — особенно в вопросах, касающихся политики, общественного доверия и будущего демократии. Только тогда ИИ займёт то место, которое он действительно заслуживает: не судьи, не проповедника, не политика — а помощника человека.
В противном случае мы можем однажды проснуться в мире, где большинство решений будет приниматься не людьми, а программами, чьи владельцы, цели и алгоритмы останутся за пределами нашего понимания.
»
Валерий Цепкало, https://www.facebook.com/100057593404345/posts/pfbid022EZ5c6joecYar...
Добро пожаловать в
ЭСПАВО (Международная Ассоциация Работников Света)
Регистрация
или Вход
© 2025 Created by ADMIN.
При поддержке
Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!
Вступить в ЭСПАВО (Международная Ассоциация Работников Света)