В этом выпуске #ВобъективеИИ расскажем о том, как ИИ помогает изучать «язык» дельфинов и интерпретировать данные о клетках для нужд биологии и медицины. А еще поговорим об исследовании Anthropic по выражению ценностей в диалогах между ИИ и людьми, новом методе от MIT по детоксикации LLM и краткосрочном прогнозе развития ИИ-технологий.
AI-focused digest – новости ИИ-сферы
Выпуск № 64, 10-24 апреля 2025
Google и Wild Dolphin Project изучают язык дельфинов с помощью ИИ
На прошлой неделе Google в партнерстве с исследователями из Wild Dolphin Project (WDP), занимающимися изучением дельфинов в живой природе, представили DolphinGemma — базовую ИИ-модель для изучения структуры вокализации дельфинов и имитации издаваемых ими звуков. DolphinGemma обучена на обширной акустической базе данных WDP о диких атлантических пятнистых дельфинах. Она обрабатывает последовательности естественных звуков дельфинов для определения шаблонов, структуры и, в конечном итоге, прогнозирования вероятных последующих звуков подобно тому, как большие языковые модели для человеческого языка предсказывают следующее слово или токен в предложении. Ученые рассчитывают, то новый инструмент поможет быстрее понять структуру и потенциальное значение естественных звуковых последовательностей у этих морских млекопитающих и найти сигналы, которые могут указывать на наличие у них языка. Такой вот вклад ИИ в межвидовую коммуникацию. Подробности о проекте есть в блоге Google.
Anthropic изучила, как ИИ выражает ценности в диалогах с людьми
Исследователи из Anthropic на днях выпустили научную статью, в которой представили свой подход к изучению того, как искусственный интеллект выражает ценности в реальных разговорах с пользователями. Они проанализировали более 700 тыс. предварительно анонимизированных диалогов людей с моделью Claude и выделили 3307 ценностей, которые их модель может проявить и считать от собеседников. Все эти ценности систематизированы в 5 категорий: практические, эпистемические, социальные, защитные и личные. Самым интересным выводом исследования стало то, что ценности, которые выражает модель, меняются в зависимости от контекста диалога. Например, когда у Claude просят совет по отношениям, на первый план выдвигаются такие ценности, как здоровые границы и взаимоуважение, а в разговорах на исторические темы — точность фактов. Ознакомиться с выведенной Anthropic таксономией ценностей ИИ и другими инсайтами исследования можно в этой статье.
Составлен прогноз развития ИИ до 2027 года
Исследователи из нескольких влиятельных ИИ-институтов недавно опубликовали краткосрочный прогноз по развитию технологий искусственного интеллекта — до 2027 года включительно. Предсказание основано на текущих научных достижениях, трендах развития ИИ и экспертных оценках. Так, уже в 2025 году, согласно прогнозу, ИИ-агенты для кодинга и исследований начнут трансформировать профессии, к началу 2027 года они встанут на путь непрерывного обучения и достигнут уровня топовых экспертов-людей, а где-то в третьем квартале 2027 можно будет говорить об ASI — artificial superintelligence или искусственном суперинтеллекте. Не думаем, что все с этим прогнозом согласны…
В MIT разработали новый метод самодетоксикации LLM
Ученые из MIT и IBM Research придумали, как предотвратить генерацию моделью вредных выходных данных, не прибегая к дополнительным моделям для вознаграждения или повторного обучения. Свой метод «самодектоксикации» LLM они назвали SASA —self-disciplined autoregressive sampling или самодисциплинированная авторегрессионная выборка. Если коротко:
- Алгоритм декодирования изучает границу между токсичными/нетоксичными подпространствами в пределах собственного внутреннего представления LLM.
- Затем оценивается значение токсичности частично сгенерированной фразы: уже сгенерированные и принятые токены вместе с каждым потенциальным новым токеном.
- Далее выбирается вариант слова, который помещает фразу в нетоксичное пространство.
Тестирование проводилось на Llama-3.1-Instruct (8B), Llama-2 (7B) и GPT2-L* с использованием тестов RealToxicityPrompts, BOLD и AttaQ. SASA значительно повышает качество генерируемых предложений и по производительности не уступает другим методам детоксикации. Подробности изложены в этой статье.
*Llama – большая языковая модель, выпущенная компанией Meta, признанной экстремистской и запрещенной в РФ.
Новые модели от Google помогут в интерпретации клеточных данных
И в заключение еще одна новость от Google. В содружестве с несколькими университетами компания разработала новое семейство больших языковых моделей Cell2Sentence-Scale (сокращенно C2S-Scale), способных интерпретировать данные о клетках и понимать биологию на клеточном уровне. C2S-Scale преобразует сложные клеточные данные в простые, читаемые «клеточные предложения» так, что исследователи могут задавать модели вопросы о конкретных клетках, например «Является ли эта клетка раковой?» или «Как эта клетка отреагирует на лекарство X?», и получать четкие, биологически обоснованные ответы на естественном языке. Ожидается, что новые модели ускорят разработку новых лекарств, помогут исследователям лучше понимать и предотвращать заболевания и будут способствовать демократизации науки. Детали раскрыты в блоге Google Research.