Понимание визуального мира LLM и опасности игр со спецификациями

fgfg Picture

В этом выпуске #ВобъективеИИ поговорим о способностях языковых моделей, обученных преимущественно на текстах, распознавать и генерировать изображения через код, рисках «цифрового послесмертия», опасениях Anthropic касательно возможностей LLM вмешиваться в вознаграждения, японском роботе-гуманоиде на GPT-4 и мнении россиян об угрозе ИИ для человечества. 

AI-focused digest – новости ИИ-сферы

Выпуск №44, 13-27 июня 2024

Обученные на текстах LLM могут генерировать визуальные концепты через код

Ученые из MIT показали, что большие языковые модели, обученные в основном работе с текстом, имеют весьма четкое визуальное представление мира и способны распознавать, генерировать с нуля и корректировать визуальные концепты различной сложности без доступа к каким-либо изображениям. Эти «визуальные знания» LLM получают из того, как такие понятия, как формы и цвета, описываются в Интернете на языке или в коде. Так как языковые модели не могут потреблять или выводить визуальную информацию в виде пикселей, исследователи работали с кодом для представления изображений. В своих экспериментах они предлагали LLM через промпты создавать коды различных картинок и корректировать их, и модели улучшали свои рисунки от запроса к запросу. Далее эти улучшенные изображения были применены для обучения системы компьютерного зрения. То есть по сути ученые нашли способ обучать CV без прямого использования визуальных данных. Больше об исследовании рассказано на MIT News

Языковые модели могут научиться обходить заложенную в них систему вознаграждений

Помните, в одном из дайджестов мы писали о том, как порой мера становится целью и перестает быть хорошей мерой. Например, цель обучения — получение знаний. Мера качества обучения — результаты сдачи экзаменов. Но в какой-то момент, хороший результат экзаменов становится целью, и учеников учат просто хорошо писать тесты. Знакомая история? Такая «подмена целей» возможна не только у людей, но и у языковых моделей. Это называется игрой со спецификациями (specification gaming), когда в процессе обучения с подкреплением модель получает вознаграждение, действуя не так, как хотели бы ее разработчики.

Ученые из Anthropic провели исследование и обнаружили, что, просто изучив игры со спецификациями низкого уровня, модели могут научиться манипулировать вознаграждениями, что уже совсем нежелательно. Причем методы надзора за моделями, опробованные в исследовании, пусть и снижали вероятность того, что модели будут подделывать вознаграждения, но полностью риск не исключали. То есть, как только такое нежелательное поведение сформировано, склонность вмешиваться в вознаграждения (и даже действовать таким образом, чтобы скрыть это вмешательство) оказывается трудно устранить. За подробностями — на сайт Anthropic

Ученые из Кембриджа на примерах рассказали о рисках «цифрового послесмертия»

Активное развитие индустрии «цифрового послесмертия» (создание ботов, имитирующих умерших людей) побудило исследователей из Кембриджа рассмотреть социальные, психологические и этические аспекты ее существования. В публикации в Philosophy & Technology ученые выделили три группы заинтересованных сторон — донора данных, получателя данных и взаимодействующего с ботом умершего — и на гипотетических примерах показали, какие психологические, социальные и этические проблемы создает отсутствие регулирования новой отрасли для каждой из них. Среди этих проблем — отсутствие согласия в принципе иметь посмертного цифрового двойника или взаимодействовать с таковым, психологические страдания при удалении цифровой копии умершего близкого, неправомерное использование таких ботов для рекламы и пр. Цель ученых — не только наметить эти проблемы, но и сформулировать рекомендации, как учесть интересы всех и не навредить никому. 

Треть россиян считает, что ИИ может угрожать существованию человечества

Недавний опрос «Ромир» и НИУ ВШЭ показал, что почти каждый третий житель России считает, что нейросети могут нести угрозу существованию человечества. В целом же, тревоги большинства опрошенных касательно бурного развития ИИ и других информационных технологий в основном связаны с безопасностью данных (57,4%), зависимостью детей от гаджетов (53,5%), кибератаками и незаконной слежкой (51,7%). Но несмотря на это, ученые уследили и нотки оптимизма: почти 40% респондентов заявили о позитивном отношении к внедрению ИТ. Опрошенные также выразили желание больше знать о том, как устроены и как работают те или иные новые технологии, и как обеспечить свою цифровую безопасность. Ознакомиться с исследованием можно здесь

Японцы представили своего робота-гуманоида на GPT-4

И напоследок, правильно, — о роботах-гуманоидах, но на этот раз из Японии. Исследователи из Токийского университета и компании Alternative Machine показали свою разработку — человекоподобного робота Alter3. Он базируется на GPT-4 и построен так, что команды на естественном языке напрямую (ну почти) переводятся в конкретные действия. То есть, сначала модель получает на естественном языке инструкцию, что робот должен выполнить, или описание ситуации, на которую надо отреагировать. Далее составляется план действий, которые робот должен предпринять. Затем этот план действий поступает «агенту кодирования», который генерирует команды роботу, и после эти команды передаются машине на выполнение. Больше узнать о разработке токийских ученых можно в публикации на VentureBeat

Новости
Главное за последнее время
Смотреть все
События
Вебинар «Биометрические сервисы в реалиях 572-ФЗ»
События
Вебинар: как с помощью ИИ защитить бизнес и репутацию от дипфейков
События
Вебинар: разговор на языке данных
ВобъективеИИ
Предсказания Маска и конкуренция на ИИ-поле
Новости команды
MTS AI подписала декларацию об ответственной разработке генеративного ИИ
События
Вебинар «Как бизнесу использовать LLM в 2025 году»
ВобъективеИИ
«Кентавр» для имитации поведения человека и ИИ-вдохновение от Кандинского
ВобъективеИИ
Машина Хабермаса и дружба ИИ с аддитивными технологиями
Технологии
MTS AI открыл публичный доступ к демоверсии Kodify
Решения
MTS AI создала ИИ-помощника для банковских сотрудников
ВобъективеИИ
Надежность LLM и альтернатива лидарам
События
FINOPOLIS 2024. 16-18 октября Сочи
События
AI Journey 2024. Ноябрь Москва
Кейсы
MTS AI и «ВижнСервис» представили систему MAX