«Кентавр» для имитации поведения человека и ИИ-вдохновение от Кандинского #ВобъективеИИ снова приветствует вас очередной подборкой исследований в области искусственного интеллекта. В этом выпуске: влияние LLM на качество научных рецензий, новый подход к оценке понимания мира генеративным ИИ, инновационный метод для разработки новых материалов, многообещающая модель для имитации поведения человека и воздействие ИИ на зарплаты в России.
AI-focused digest – новости ИИ-сферы
Выпуск №53, 24 октября — 14 ноября 2024
LLM могут снизить качество рецензирования научных публикаций
Эксперты все чаще используют большие языковые модели для написания рецензий на статьи по компьютерным наукам, что снижает качество рецензирования. Ученые проанализировали более 50 тысяч рецензий на публикации в области информатики для научных конференций за 2023-2024 годы и пришли к выводу, что в них от 7 до 17% предложений создано искусственным интеллектом. Об этом сообщает профессор Стэнфордского университета Джеймс Зоу (James Zou) в Nature, ссылаясь на недавнее исследование. Определить, что текст писал не человек, можно по формальному тону и частоте использования специфических слов, что свойственно ИИ. Например, слова «похвальный» и «дотошный» теперь в рецензиях встречаются в 10 раз чаще, чем до 2022 года. Как правило, созданный с помощью ИИ анализ научных текстов выглядит поверхностным и слишком обобщенным, часто в таких рецензиях нет отсылки к конкретным разделам публикации. Какие решения проблемы предлагают ученые, читайте тут.
Исследование: Генеративный ИИ не так хорошо понимает мир, как кажется
Современные генеративные модели обладают впечатляющими возможностями, что кажется, будто они неявно познают некоторые общие истины о мире, и целый ряд исследований это подтверждает. Однако ученые из Массачусетского, Гарвардского и Корнельского университетов разработали новый подход к оценке понимания мира искусственным интеллектом, вдохновившись теоремой Майхилла — Нероуда, и выявили, что видение картины мира генеративными моделями не столь целостно и ясно, как кажется. Об этом сообщает новостной портал MIT. Например, в эксперименте с навигацией по Нью-Йорку модель типа GPT может предоставить пошаговые инструкции для водителей с почти идеальной точностью. Но стоит только внести незначительные изменения в условия задачи, перекрыть пару улиц и добавить объезды, производительность модели резко падает, а на сгенерированный карте города могут появиться несуществующие объекты. На основе этого и нескольких других экспериментов ученые сделали вывод, что модель, которая хорошо работает в одном контексте, может потерпеть неудачу, если условия задачи или среда будут немного другими. Создание генеративных моделей, осмысленно отражающих базовую логику областей, которые они моделируют, было бы чрезвычайно ценным, пишут ученые. Новая методика оценки того, насколько модели близки к этому, изложены в этом препринте.
ИИ способен помочь в создании новых материалов, беря идеи из искусства
Профессор MIT Маркус Бюлер (Markus Buehler) разработал метод с применением искусственного интеллекта, который помогает находить скрытые связи между наукой и искусством, чтобы создавать новые материалы. В частности, как сообщает MIT News, с его помощью можно найти общее казалось бы в таких несвязанных между собой творениях, как биологическая ткань и 9-я симфония Бетховена, и создать новые материалы, вдохновляясь картиной Кандинского «Композиция VII». Если коротко, то ученый использовал генеративный искусственный интеллект для преобразования данных из тысячи научных статей по биологическим материалам в комплексный онтологический граф знаний, а затем научил ИИ думать о данных на основе графов и связывать разнородные концепции, которые ранее никак не были связаны. Научными разъяснения по методу и описания экспериментов приведены в журнале Machine Learning: Science and Technology.
Создана ИИ-модель, способная имитировать и предсказывать поведение человека
Еще одно важное, на наш взгляд, изобретение уходящей осени. Ученые из нескольких ведущих университетов и исследовательских центров мира, объединив усилия, создали вычислительную модель под названием Centaur, способную предсказывать и моделировать поведение человека в любой ситуации, которую можно описать естественным языком. По сути, Centaur является первым реальным кандидатом на единую модель человеческого познания, пишут ученые. Она создана через дообучение открытой LLM Llama 3.1 70B (разработка компании Meta, признанной экстремистской и запрещенной в РФ) на наборе данных Psych-101, который содержит результаты 160 психологических экспериментов с участием более 60 тысяч человек — это более 10 млн актов выбора. Исследование показало, что Centaur прекрасно моделирует поведение новых участников и успешно справляется с задачами генерализации. Конечно, требуются еще эксперименты, исследования и доработки. Но ученые уже предвидят, что их разработка окажет разрушительное влияние на когнитивные науки. Подробности — в этом препринте.
Исследование SuperJob: нейросети повышают зарплату программистам, но снижают пользователям ИИ
Хорошие новости для программистов и так себе для маркетологов. Согласно свежему исследованию портала SuperJob, разработчики с опытом в области машинного обучения зарабатывают больше, чем их коллеги без такового. Так, в частности, зарплата программиста на Python со знаниями ML в среднем составляет 370 тыс. рублей в месяц, а без — 270 тыс. руб. А вот по позициям, предполагающим использование нейросетей в работе, ситуация противоположная — зарплатные предложения для них ниже, чем для специалистов по тем же направлениям, работающим без применения ИИ. Исследователи связывают это с тем, что работодатель думают, что использование искусственного интеллекта серьезно облегчает труд и снижает временные затраты на рутинные операции, а потому не готовы платить больше. В проигрыше из-за ИИ оказываются менеджеры проектов, графические и UX/UI-дизайнеры, менеджеры по продажам и маркетологи.