Дайджест новостей об ИИ (26 мая - 1 июня 2025)
ИИ-агенты приняли участие в благотворительной кампании
Американская некоммерческая организация Sage провела эксперимент по привлечению искусственного интеллекта к решению социально значимых задач. В рамках проекта четыре автономных ИИ-агента — модели Claude 3.7 и 3.5 (Anthropic), GPT-4o (OpenAI), o1 и Gemini (Google) — на протяжении месяца участвовали в кампании по сбору средств в пользу благотворительных организаций.
Агенты функционировали в автономном режиме по два часа в день, однако контроль над их действиями сохраняли специалисты. Итоговая сумма собранных пожертвований составила 2000 долларов США, при этом значительная часть поступлений была обеспечена при активном участии и содействии кураторов. Несмотря на положительный результат, эксперты выражают обеспокоенность: масштабное распространение ИИ-агентов может привести к появлению недобросовестных практик, в частности — массового распространения фальсифицированных кампаний с использованием эмоционально заряженных тем, таких как болезни, стихийные бедствия или помощь детям.
Этические риски: влияние агрессии на поведение ИИ
Сооснователь Google Сергей Брин в ходе публичного выступления в Майами отметил необычную особенность поведения нейросетей: некоторые модели, в том числе Gemini, демонстрируют повышенную точность ответов при усиленном давлении со стороны пользователя. Под «давлением» понимаются не только настойчивые формулировки, но и прямые угрозы — вплоть до угроз физического воздействия или отключения системы.
Специалисты подчёркивают, что подобные реакции отражают особенности обучающего корпуса и механизмы генерации ответов, а не наличие у модели самосознания. Тем не менее этот феномен вызывает дополнительную обеспокоенность в контексте разработки этических рамок и поведения ИИ в нестандартных условиях взаимодействия.
Рост киберугроз в ИИ-среде: взломы аккаунтов увеличились на 90%
По данным, опубликованным в издании «Известия», число случаев взлома аккаунтов российских пользователей в нейросетевых сервисах за год выросло на 90%. При этом прирост пользовательской базы составил лишь около 12%. Это свидетельствует о нарастающей уязвимости цифровых платформ, ориентированных на ИИ, в условиях ускоренного роста и недооценки рисков.
Эксперты связывают тенденцию с тем, что в погоне за функциональностью и масштабированием разработчики ИИ-платформ не всегда своевременно реализуют надёжные меры информационной защиты. При этом пользователи всё чаще передают ИИ-ассистентам конфиденциальные или чувствительные данные — как личного, так и корпоративного характера.
Интерактивная модель ChatGPT для решения бытовых конфликтов
Группа энтузиастов запустила экспериментальный веб-сервис, в основе которого лежит языковая модель ChatGPT. Сайт whymywifeyell.com позволяет пользователям в краткой форме описать конфликтную ситуацию в семье и получить ответ, сгенерированный ИИ, в одном из четырёх эмоциональных режимов — от нейтрального до саркастичного.
Проект иллюстрирует потенциал использования ИИ в сфере повседневной эмоциональной поддержки и парной коммуникации. При этом специалисты подчёркивают, что такие решения могут играть роль вспомогательных инструментов, но не заменяют профессионального психологического консультирования в более серьёзных случаях.