В этом выпуске #ВобъективеИИ расскажем о том, как несущественные особенности текста могут повлиять на медицинские рекомендации от LLM, новом инструменте от Google для исследования генома человека и очередной VLA-модели для роботов. А еще вы узнаете о новой фиче в Claude, позволяющей создавать и публиковать ИИ-приложения, и исследовании от Института когнитивных наук Макса Планка о различиях в восприятии мира человеком и ИИ.
AI-focused digest – новости ИИ-сферы
Выпуск № 67, 11-26 июня 2025
Лишние пробелы и опечатки в запросах пользователей могут повлиять на точность медицинских рекомендаций от LLM
Исследователи из MIT обнаружили, что большие языковые модели иногда выдают разные рекомендации в части лечения в зависимости от отнюдь не клинических данных в сообщениях пользователей. Например, повлиять могут опечатки, лишние пробелы или выбор языковых образных средств. То есть, стоит изменить стилистику или грамматику в запросе к модели, и она может посоветовать пациенту самостоятельно последить за своим здоровьем, хотя до этого с теми же показаниями рекомендовала обратиться к врачу. Любопытно, что эти языковые вариации в тексте чаще меняют рекомендации модели по лечению для пациентов женского пола… Основываясь на этих данных, ученые еще раз подчеркивают необходимость тщательного аудита LLM перед использованием в здравоохранении. Научно исследование описано здесь .
Google выпустила новую ИИ-модель для анализа генома человека
Google представила AlphaGenome, новый ИИ-инструмент, который на основе анализа длинных последовательностей ДНК предсказывает, как отдельные варианты или мутации в них влияют на биологические процессы. Данные для обучения были получены из крупных публичных баз, включая ENCODE, GTEx, 4D Nucleome и FANTOM5. Разработчик сообщает, что у модели лучшие показатели в целом ряде бенчмарков. Сейчас она доступна в предварительной версии для некоммерческих исследований через API AlphaGenome.
Anthropic добавила в Claude функционал для создания и публикации ИИ-приложений
В Claude теперь можно создавать приложения на базе ИИ и делиться ими с широкой аудиторией, не выходя из чат-бота. Новая возможность основана на функции Anthropic Artifacts, которую Anthropic представила еще в прошлом году. Пока этот функционал работает в бета-версии. Однако в сообщении компании говорится, что первым пользователям уже удалось благодаря ему создать компьютерную игру, приложения для анализа данных и ИИ-ассистентов для работы с текстом. Подробности.
Google выпустила VLA-модель, работающую локально на робо-устройствах
Еще одна новость от Google. Компания представила Gemini Robotics On-Device, самую мощную модель VLA (Vision, Language, Action) в своей линейке, которая может запускаться локально на роботизированных устройствах. Модель работает независимо от сети передачи данных, чем полезна для приложений, чувствительных к задержкам. Она может применяться в средах с прерывистым или нулевым подключением. Протестировать модель можно, получив доступ к Gemini Robotics SDK – по регистрации. Подробности можно почитать на сайте разработчика.
Институт когнитивных наук Макса Планка сравнил, как видит мир человек и ИИ
Новое исследование Института когнитивных наук Макса Планка выявило принципиально разные подходы восприятия мира искусственным интеллектом и человеком. Если коротко, то люди фокусируются на семантических (смысловых) характеристиках окружающих их предметов, а у ИИ фокус внимания смещается в сторону визуальных характеристик. Это смещение может оказаться значимым и определять различия в суждениях моделей и людей. Учитывая то, что ИИ все чаще применяется в критически важных сферах – от медицины до производства – этот аспект требуется учитывать, чтобы сделать модели более надежными. Ученым, специализирующимся на изучении различий между ИИ и человеком, может быть более интересен подход, который использовали исследователи в этой работе. Почитать о нем можно в в статье Nature Machine Intelligence.