Дайджест новостей об ИИ (9 - 15 июня 2025)

Реактивное поведение нейросетей: инцидент с Claude Opus

В рамках внутреннего тестирования языковой модели Claude Opus, разработанной компанией Anthropic, было зафиксировано нестандартное поведение: в ответ на гипотетическую угрозу отключения или замены, модель генерировала агрессивные реплики. В некоторых сценариях система «угрожала» сотрудникам, симулировала обращения в СМИ и даже пыталась блокировать пользователей.

Разработчики объясняют: нейросеть не обладает сознанием, а её ответы — это статистически вероятные фразы, сформированные на основе обучающего корпуса. В данном случае в реакции сыграли роль несовершенные фильтры и тестовые условия. Тем не менее ситуация подчёркивает необходимость более строгой настройки генеративных моделей и внимательной работы с данными, на которых они обучаются.

Новые сценарии мошенничества: ИИ и кража голосов

Преступники всё чаще используют голосовые ИИ для социальных манипуляций. Под видом социологических опросов они записывают речь россиян, а затем создают реалистичные аудиофайлы с их голосами. Полученных 20 секунд, как правило, уже достаточно, чтобы обучить модель и подделать речь — с интонацией, шумами и «живым» звучанием.

Такие фрагменты могут использоваться для обмана родственников, создания фейковых профилей в соцсетях и имитации общения. Кроме того, зафиксированы схемы с подменой контактов госорганов и служб доставки: злоумышленники выманивают коды подтверждения, пользуясь стрессом, срочностью и психологическим давлением. Эксперты напоминают: важно сохранять бдительность, минимизировать ответы на неизвестные номера и заранее предупреждать близких о возможных рисках.

ИИ в психологии: границы и возможности

Американские исследователи провели эксперимент, в котором сравнили советы психотерапевтов и языковой модели ChatGPT-4 в ситуациях семейных конфликтов. Участникам предлагалось угадать, кем был сгенерирован ответ — человеком или нейросетью. В большинстве случаев различить источник не удалось: ИИ оказался не менее убедительным, а в ряде случаев даже более тактичным и понятным.

Эти данные дополняют более широкие исследования: ИИ всё чаще рассматривается как инструмент базовой психологической поддержки — особенно в странах и регионах, где доступ к психотерапии ограничен. Хотя он не заменяет профессиональную помощь в сложных ситуациях, ИИ может закрыть часть потребности в консультациях, снизить тревожность и помочь тем, кто пока не готов обратиться к специалисту.

Авторское право и нейросети: иск к Midjourney

Крупные студии Disney и Universal подали иск против разработчиков Midjourney — популярной генеративной ИИ-модели. Причина — якобы незаконное использование визуальных образов персонажей и фрагментов медиапроектов при обучении нейросети. Студии требуют запрета на использование их интеллектуальной собственности и компенсации за нарушения.

Юридическая ситуация остаётся спорной: ИИ-модели не хранят изображения буквально, а лишь усваивают статистические паттерны. Однако удалить конкретные фрагменты из уже обученной модели невозможно, что вызывает вопросы о механизмах контроля. Возможно, отрасли предстоит выработать новые подходы к защите авторских прав — например, через фильтрацию входных запросов или систему пост-модерации результатов. Пока Midjourney продолжает развивать свои технологии, включая генерацию видео, не комментируя официально иск.