Язык дельфинов и самодетоксикация LLM

fgfg Picture

В этом выпуске #ВобъективеИИ расскажем о том, как ИИ помогает изучать «язык» дельфинов и интерпретировать данные о клетках для нужд биологии и медицины. А еще поговорим об исследовании Anthropic по выражению ценностей в диалогах между ИИ и людьми, новом методе от MIT по детоксикации LLM и краткосрочном прогнозе развития ИИ-технологий.

AI-focused digest – новости ИИ-сферы

Выпуск № 64, 10-24 апреля 2025

Google и Wild Dolphin Project изучают язык дельфинов с помощью ИИ

На прошлой неделе Google в партнерстве с исследователями из Wild Dolphin Project (WDP), занимающимися изучением дельфинов в живой природе, представили DolphinGemma — базовую ИИ-модель для изучения структуры вокализации дельфинов и имитации издаваемых ими звуков. DolphinGemma обучена на обширной акустической базе данных WDP о диких атлантических пятнистых дельфинах. Она обрабатывает последовательности естественных звуков дельфинов для определения шаблонов, структуры и, в конечном итоге, прогнозирования вероятных последующих звуков подобно тому, как большие языковые модели для человеческого языка предсказывают следующее слово или токен в предложении. Ученые рассчитывают, то новый инструмент поможет быстрее понять структуру и потенциальное значение естественных звуковых последовательностей у этих морских млекопитающих и найти сигналы, которые могут указывать на наличие у них языка. Такой вот вклад ИИ в межвидовую коммуникацию. Подробности о проекте есть в блоге Google.

Anthropic изучила, как ИИ выражает ценности в диалогах с людьми

Исследователи из Anthropic на днях выпустили научную статью, в которой представили свой подход к изучению того, как искусственный интеллект выражает ценности в реальных разговорах с пользователями. Они проанализировали более 700 тыс. предварительно анонимизированных диалогов людей с моделью Claude и выделили 3307 ценностей, которые их модель может проявить и считать от собеседников. Все эти ценности систематизированы в 5 категорий: практические, эпистемические, социальные, защитные и личные. Самым интересным выводом исследования стало то, что ценности, которые выражает модель, меняются в зависимости от контекста диалога. Например, когда у Claude просят совет по отношениям, на первый план выдвигаются такие ценности, как здоровые границы и взаимоуважение, а в разговорах на исторические темы — точность фактов. Ознакомиться с выведенной Anthropic таксономией ценностей ИИ и другими инсайтами исследования можно в этой статье.

Составлен прогноз развития ИИ до 2027 года

Исследователи из нескольких влиятельных ИИ-институтов недавно опубликовали краткосрочный прогноз по развитию технологий искусственного интеллекта — до 2027 года включительно. Предсказание основано на текущих научных достижениях, трендах развития ИИ и экспертных оценках. Так, уже в 2025 году, согласно прогнозу, ИИ-агенты для кодинга и исследований начнут трансформировать профессии, к началу 2027 года они встанут на путь непрерывного обучения и достигнут уровня топовых экспертов-людей, а где-то в третьем квартале 2027 можно будет говорить об ASI — artificial superintelligence или искусственном суперинтеллекте. Не думаем, что все с этим прогнозом согласны…

В MIT разработали новый метод самодетоксикации LLM

Ученые из MIT и IBM Research придумали, как предотвратить генерацию моделью вредных выходных данных, не прибегая к дополнительным моделям для вознаграждения или повторного обучения. Свой метод «самодектоксикации» LLM они назвали SASA —self-disciplined autoregressive sampling или самодисциплинированная авторегрессионная выборка. Если коротко:

  • Алгоритм декодирования изучает границу между токсичными/нетоксичными подпространствами в пределах собственного внутреннего представления LLM.
  • Затем оценивается значение токсичности частично сгенерированной фразы: уже сгенерированные и принятые токены вместе с каждым потенциальным новым токеном.
  • Далее выбирается вариант слова, который помещает фразу в нетоксичное пространство.

Тестирование проводилось на Llama-3.1-Instruct (8B), Llama-2 (7B) и GPT2-L* с использованием тестов RealToxicityPrompts, BOLD и AttaQ. SASA значительно повышает качество генерируемых предложений и по производительности не уступает другим методам детоксикации. Подробности изложены в этой статье.

*Llama – большая языковая модель, выпущенная компанией Meta, признанной экстремистской и запрещенной в РФ.

Новые модели от Google помогут в интерпретации клеточных данных

И в заключение еще одна новость от Google. В содружестве с несколькими университетами компания разработала новое семейство больших языковых моделей Cell2Sentence-Scale (сокращенно C2S-Scale), способных интерпретировать данные о клетках и понимать биологию на клеточном уровне. C2S-Scale преобразует сложные клеточные данные в простые, читаемые «клеточные предложения» так, что исследователи могут задавать модели вопросы о конкретных клетках, например «Является ли эта клетка раковой?» или «Как эта клетка отреагирует на лекарство X?», и получать четкие, биологически обоснованные ответы на естественном языке. Ожидается, что новые модели ускорят разработку новых лекарств, помогут исследователям лучше понимать и предотвращать заболевания и будут способствовать демократизации науки. Детали раскрыты в блоге Google Research.

Новости
Главное за последнее время
Смотреть все
Технологии
MTS AI выводит на рынок нового ИИ-ассистента для разработчиков
События
Вебинар «Как бизнесу использовать LLM в 2025 году»
События
Вебинар: как с помощью ИИ защитить бизнес и репутацию от дипфейков
События
Вебинар: разговор на языке данных
ВобъективеИИ
Предсказания Маска и конкуренция на ИИ-поле
Новости команды
MTS AI подписала декларацию об ответственной разработке генеративного ИИ
ВобъективеИИ
Язык дельфинов и самодетоксикация LLM
ВобъективеИИ
ИИ-хакеры и новые конкуренты DeepSeek
Новости команды
Исследование MTS AI: У 70% программистов есть претензии к ИИ-ассистентам для написания кода, но большинство признает их пользу
MTS AI в медиа
Агенты выстраиваются в линейку
Технологии
MTS AI выпустила Cotype Pro 2 — второе поколение LLM для бизнеса
MTS AI в медиа
Эксперт рассказал, когда ИИ сможет обрабатывать все медицинские снимки
ВобъективеИИ
Мем-творчество ИИ и риски AGI
Кейсы
Сервис МТС Live подключил нейросеть от MTS AI к генерации описаний для билетной витрины
Решения
Детектор мошенничества в текстовых и голосовых сообщениях