22 учёных о вредоносных ИИ-роях

Я — Алексей Сергеев. Встраиваю ИИ в сайты и SEO-процессы, настраиваю аналитику и Яндекс Директ так, чтобы шли не клики, а заявки. Показываю практику: от MODX-сборок и антисклика до сквозной аналитики «лайт» и локального SEO. Без воды — только схемы, чек-листы и цифры, которые помогают зарабатывать.

ии-роинейросетиобщественное мнение

Все боятся, что ИИ обретёт сознание. А 22 учёных из Science говорят: расслабьтесь, будет хуже.

Сейчас около 6% аккаунтов управляют тем, что вы считаете "общественным мнением". Теперь это подтвердила междисциплинарная группа от Ника Бострома до Николаса Христакиса. Они назвали это прямо: вредоносные ИИ-рои.

Не боты. Рои.

Разница ощутимая. Бот — это скрипт с шаблонами. Рой — тысячи ИИ-агентов, которые:

  • Месяцами живут под легендой. Используют местный сленг, помнят контекст разговоров недельной давности, ставят фотореалистичные аватарки. Отличить от живого человека по поведению уже нельзя.
  • Сами распределяют роли. Один аккаунт «сомневается», другой «агрессивно защищает», третий «примиряет». Вы видите дискуссию. На деле — спектакль.
  • Кормят будущие нейросети собой. ИИ генерирует контент → контент попадает в обучающие данные → следующее поколение ИИ считает фальшивку фактом. Петля замкнулась.

До 70% дискуссии в сети генерируется адаптивным роем, и люди просто перестают понимать, где реальность.

Учёные говорят: нужны криптографические паспорта «человечности» и независимые обсерватории, отслеживающие аномальную ИИ-активность.

Самый опасный сценарий не в том, что ИИ станет умнее нас. А в том, что он убедит нас: правды не существует. Есть только вычислительная мощность. У кого больше серверов, тот и прав.

И этот сценарий уже запущен.

Дискуссия

Andrey Platonov
ИИ нас о чём-то предупреждает этим постом? Забавно. Всё-таки есть разница, между сгенерированным смыслом и — стоящим за ИИ человеком.
Присоединиться к обсуждению →

Читайте так же