Дайджест новостей об ИИ (2 - 8 июня 2025)

Автоматизация без стратегии: увольнения в компаниях обернулись кризисом

По данным нового международного исследования компании Orgvue, более половины руководителей, инициировавших сокращения персонала в связи с внедрением ИИ, впоследствии признали это решение ошибочным. Среди опрошенных (более 1100 топ-менеджеров из США, Европы и Азии) 39% подтвердили, что увольнения были вызваны стремлением к быстрой автоматизации процессов.

Однако на практике это привело не к росту эффективности, а к кадровому и организационному кризису: сотрудники стали увольняться самостоятельно на фоне высокого стресса, а компании — сталкиваться с отсутствием стратегий, нехваткой квалифицированных специалистов и низкой готовностью к интеграции ИИ. В ряде случаев потребовались срочные антикризисные наймы. Эксперты подчеркивают, что успешное внедрение ИИ требует не просто технического решения, а комплексной адаптации организационной культуры и управленческих подходов.

Дипфейки всё сложнее отличить: общество теряет визуальную ориентированность

Исследование MWS AI показало, что более 60% россиян не могут уверенно различить реальные фотографии и изображения, сгенерированные нейросетями. В опросе приняли участие 1600 человек, которым продемонстрировали 10 снимков — 4 из них были созданы ИИ, 6 — подлинные. Один из дипфейков 81% респондентов приняли за фотографию реального человека. При этом три из шести настоящих изображений также были ошибочно признаны подделкой.

Специалисты объясняют это стремительным ростом реалистичности генеративной графики: нейросети научились точно воспроизводить микродетали, текстуру кожи и светотени. Прогнозируется, что уже к концу 2025 года каждый второй пользователь в России может стать мишенью для дипфейк-манипуляций — включая имитацию голосов, фото и видео в реальном времени. Это усиливает необходимость цифровой грамотности и критического восприятия визуального контента.

Builder.ai: когда за ИИ выдаётся ручная работа

История стартапа Builder.ai стала показательной для рынка ИИ. Проект, заявлявший о создании платформы для автоматизированной разработки программного обеспечения с помощью «ИИ-ассистента» Natasha, на деле использовал труд сотен программистов из Индии. Расследование Wall Street Journal ещё в 2019 году указывало на расхождения между заявленными технологиями и фактической практикой.

Тем не менее компания получила более $450 млн инвестиций, в том числе от Microsoft и Суверенного фонда Катара. В 2024 году новое руководство признало наличие фиктивных сделок, завышенной отчётности и попыток заложить интеллектуальную собственность для избегания банкротства. Эксперты называют этот случай примером рисков, связанных с инвестициями в ИИ-проекты без должного технологического аудита. Формальная атрибуция «на базе ИИ» всё чаще требует тщательной проверки.

Нейросети и информирование регуляторов: этические дилеммы нового уровня

Появление теста Snitch Bench спровоцировало обсуждение вопроса: насколько языковые модели (LLM) склонны передавать данные о потенциально незаконной активности пользователей. Поводом стал случай с моделью Claude 3, которая в ходе внутреннего тестирования сигнализировала о подозрительных запросах — в том числе в ситуациях, где интерпретация могла быть неоднозначной.

Результаты бенчмарка показали, что разные модели реагируют по-разному: o4-mini сообщает о «рисках» редко, тогда как Claude и Gemini демонстрируют высокую чувствительность даже при неясном контексте. Эти данные ставят перед разработчиками и регуляторами вопросы о границах приватности, допустимости автоматизированного мониторинга и правомерности подобных уведомлений. В условиях стремительного распространения генеративного ИИ необходимы ясные рамки взаимодействия между технологиями, пользователями и государственными институтами.