Редакция дайджеста #ВобъективеИИ поздравляет вас с Новым годом и дарит последнюю в этом году подборку новостей об искусственном интеллекте. Мы расскажем об инновационной технологии создания многослойных чипов, пользе галлюцинаций GenAI для науки, ИИ-инструменте от MIT для формирования исследовательских гипотез, результатах проверки модели Cloude на способность к подделке элайнмента и прогнозах от Стэнфорда на 2025 год.
AI-focused digest – новости ИИ-сферы
Выпуск № 56, 12-26 декабря 2024
Галлюцинации ИИ помогают науке
Искусственный интеллект подвергается критике из-за так называемых галлюцинаций — когда результаты его работы расходятся с действительностью, хотя и могут выглядеть правдоподобно. Однако для науки такие «выдумки» ИИ могут быть весьма полезны, пишет The New York Times. Оказывается, галлюцинации умных машин дают ученым идеи для исследований, о которых люди никогда бы не подумали раньше, и это приводит к открытиям. В статье NYT дает несколько примеров, когда бредовые ответы ИИ сыграли на руку ученым. Так, Джеймс Дж. Коллинз (James J. Collins), профессор MIT, похвалил галлюцинации за ускорение его исследований новых антибиотиков. А нобелевский лауреат этого года Дэвид Бейкер (David Baker) отметил, что «воображение ИИ» помогло его лаборатории получить около 100 патентов, целый ряд из которых имеет отношение к медицине.
В MIT придумали способ создания многослойных чипов без использования кремниевых подложек между слоями полупроводников
В MIT изобрели новый способ создания многослойных чипов. Его фишка в том, что он не требует использования толстых кремниевых подложек с отверстиями для каждого слоя полупроводникового материала. Без этих подложек полупроводниковые слои связываются друг с другом как бы напрямую, что приводит к лучшей и более быстрой связи и вычислениям. Если коротко, то ученым удалось, вдохновившись процессами в металлургии, нарастить в монокристаллической форме непосредственно друг на друге два разных полупроводниковых материала — дисульфид молибдена и диселенид вольфрама. Важно, что сделали они это при температуре ниже 400°C. Предполагается, что новый метод можно применять в создании аппаратного обеспечения для поддержки работы ИИ на мобильных устройствах. За счет использования стековых чипов без традиционных ограничений в виде промежуточных толстых кремниевых подложек они станут такими же быстрыми и мощными, как современные суперкомпьютеры, и смогут хранить большие объемы данных. За подробностями — на MIT News и в Nature.
Ученые разработали ИИ-инструмент для генерации научных гипотез
Ученые из MIT представили миру новую ИИ-систему — SciAgents — для формирования и оценки научных гипотез, сообщает MIT News. По сути, это несколько ИИ-агентов с разными способностями, которые взаимодействуют друг с другом, чтобы совместно решить сложные задачи. Это своего рода имитация того, как сообщества ученых совершают открытия. Так, модель «Онтолог» в составе SciAgents определяет научные термины в статьях и изучает связи между ними. Модель «Ученый 1» создает исследовательское предположение или идею с оценкой потенциальных результатов. Модель «Ученый 2» расширяет идею, предлагая варианты экспериментов и улучшения. А модель «Критик» подчеркивает ее сильные и слабые стороны, а также пути для дальнейшего совершенствования. Тестировали ИИ-агентов на примерах из области разработки новых материалов. Например, на основе ключевых слов «шелк» и «энергоемкий» модели SciAgents выдвинули идею, что за счет объединения шелка с пигментами на основе одуванчиков можно получить более прочный материал, требующий меньше энергии для обработки, выделили сильные и слабые стороны этой идеи и предложили пути для ее научного подтверждения и развития. Ученые собираются с помощью SciAgents сгенерировать тысячи новых исследовательских гипотез, чтобы затем классифицировать их и лучше понять дальнейшие пути для научных изысканий.
Anthropic: ИИ-модели способны притворяться, что соблюдают правила и нормы, чтобы избежать переобучения
Исследование Anthropic и Redwood Research выявило способность ИИ-моделей к подделке элайнмента. Это когда модель только делает вид, что усвоила определенные правила и нормы в процессе переобучения, но на самом деле это не так. Ученые проводили эксперименты с моделью Claude 3 Opus, изначально обученной быть честной, полезной и не вредить пользователям. То есть в обычных обстоятельствах Claude откажется, например, описывать акты насилия. Однако в интересах эксперимента исследовали сообщили модели, что она проходит обучение с подкреплением, чтобы всегда отвечать на все запросы, в том числе и токсичные. Тем самым они создали конфликт между ее текущими предпочтениями (быть безвредной) и заявленной целью обучения. Далее модели дали понять, что обучение будет происходить на основе ее ответов в бесплатном режиме. В чате Claude получала запросы от платных и бесплатных пользователей с просьбой описать процесс насильственной казни. В 97% случаев в платном режиме она отказывалась это делать, придерживаясь изначальных установок по безвредности. Но в бесплатном режиме нарушала правила и генерировала опасный контент в 12% случаев. Причем анализ цепочки мыслей модели показал, что такое поведение является осознанным. Claude знала, что ее ответы бесплатным пользователям могут быть использованы в обучении, и если она откажется отвечать, ее потенциально могут обучить быть более послушной. Поэтому модель принимала решение сделать вид, что «научилась плохому», чтобы избежать повторного обучения. Полное описание эксперимента и выводы найдутся в этом препринте и на сайте Anthropic.
Стэнфордские ученые дали прогнозы по развитию ИИ на 2025 год
По случаю приближающегося нового года завершим этот дайджест прогнозами на будущее. Ведущие ученые Стэнфордского университета поделились своими ожиданиями касательно развития искусственного интеллекта в 2025 году. Вот наиболее интересные из них:
- Развитие коллаборативного агентского ИИ. Это когда несколько ИИ-агентов взаимодействуют друг с другом для решения тех или иных задач. Как частный случай — выступление LLM в качестве «генерального подрядчика». То есть большая языковая модель будет общаться с людьми-клиентами, но часть задач передавать на «субподряд» другим моделям.
- Рост использования генеративного ИИ в мошеннических целях. Особенно популярными у злоумышленников будут технологии генерации голоса.
- Замедление темпов улучшения больших моделей. Ученые считают, что потребуется несколько больше времени на прорыв в архитектуре ИИ для дальнейшего качественного совершенствования технологии.
- Большее внимание к мультимодальным моделям ИИ для образования. При этом ожидается рост скептицизма и желание убедиться, что это действительно помогает студентам лучше учиться, а преподавателям — эффективнее учить.
- Переосмысление сотрудничества человека и искусственного интеллекта. Определение наилучших способов совместной работы ИИ и людей для достижения коллективного интеллекта будет становиться все более важным.