Борьба за справедливость решений ИИ и эластичные батарейки

fgfg Picture

#ВобъективеИИ сегодня мы расскажем об эластичных батарейках для гибкой электроники, объединениях для развития безопасного ИИ, новом исследовании от MIT о справедливости ML-моделей и влиянии генеративного ИИ на креативность писателей. 

AI-focused digest – новости ИИ-сферы

Выпуск №46, 11-25 июля 2024

В Китае придумали, как создать полностью эластичную батарею для гибкой электроники

Китайские ученые создали полимерный электролитный слой для быстрой транспортировки ионов лития, который может растягиваться в 50 раз (на 5000%), сохраняя емкость хранения заряда даже после 67 циклов зарядки/разрядки. Благодаря этому стало возможно конструировать более эффективные эластичные литий-ионные батареи, необходимые для гибкой электроники, использующейся в медицине, и для набирающих популярность мягких роботов. Попытки создать гибкие батарейки предпринимались различными учеными и ранее. Однако все версии, имея умеренную эластичность, были сложны в сборке. А еще частой проблемой была потеря емкости хранения энергии с течением времени, что могло быть связано с нестабильностью жидкого электролита в них и слабой связью электролитного слоя с электродами. Китайским исследователям удалось от этих недостатков избавиться, разместив электролит не в жидкости, а в полимерном материале, сплавленном с двумя гибкими электродными пластинками. За деталями – в этот пресс-релиз или научную статью в ACS Energy Letters.

Рандомизация может повысить справедливость ML-моделей для распределения ограниченных ресурсов

Исследователи из MIT и Северо-Восточного университета США выдвинули идею, что рандомизация, то есть добавление элемента случайности в выбор решений ML-моделей, может повысить их справедливость, в целом ряде случаев, когда дело касается распределения ограниченных ресурсов. Примером может быть, в частности, ранжирование с помощью ИИ кандидатов на вакансии или определение пациентов для пересадки почек. Обычно, чтобы добиться справедливости решений при использовании ИИ в подобных ситуациях, применяются различные методы — от настройки параметров, которые модель должна учитывать, до калибровки ее оценок. Однако ученые считают, что этого недостаточно. Если обратиться к примеру с отбором кандидатов, то может быть так, что несколько компаний используют одну и ту же модель для оценки соискателей, и она всегда помещает одного и того же достойного кандидата в конец рейтинга, лишая его шансов занять вакансию. Исследователи показали, что рандомизация может быть полезной в таких случаях. Когда одна и та же группа людей постоянно получает отрицательные решения моделей и когда эти решения связаны с целым рядом неопределенностей, элемент случайности повышает справедливость. Однако различные ситуации требуют различной «степени рандомизации» в принятии решений. О том, как ученые предлагают определять эту требуемую «степень рандомизации», читайте в этой статье на MIT News

Генеративный ИИ приводит к росту индивидуальной креативности писателей в ущерб разнообразию контента

Генеративный ИИ повышает креативность писателей на индивидуальном уровне, но снижает разнообразие контента на коллективном уровне. К такому полному противоречий выводу пришли ученые из Школы менеджмента Университетского колледжа Лондона и Эксетерского университета в результате онлайн-эксперимента с участием 293 писателей. Участники были разделены на три группы, их задачей было написать короткие истории. Первая группа не использовала ИИ вообще, второй было разрешено получить лишь одну идею от ChatGPT, а третьей дали возможность запросить целых пять идей у ИИ-бота. Результаты: истории авторов с доступом к генеративному ИИ были оценены как более творческие, неожиданные и даже приятные и полезные. При этом авторы, оценка по креативности которых была менее высокой до начала эксперимента, показали наибольший прогресс благодаря ИИ. Однако написанные с помощью искусственного интеллекта рассказы оказались больше похожими друг на друга, чем те, что были созданы только людьми. Экспертам и политикам, отвечающим за поддержку творчества, есть над чем подумать… Подробно эксперимент и выводы по его итогам описаны в ScienceAdvances

Мировые ИТ-гиганты объединились в борьбе за безопасный ИИ

На Аспенском форуме по безопасности в США на прошлой неделе было объявлено о создании коалиции за безопасный искусственный интеллект — CoSAI (Coalition for Secure AI). Как сообщается в пресс-релизе нового объединения, его целью будет формирование методологий, инструментов, гайдов и стандартов, которые помогут создавать, внедрять и применять безопасные ИИ-системы. Участниками CoSAI уже стали многие лидеры мировой технологической индустрии: Google, IBM, Intel, Microsoft, OpenAI, NVIDIA, PayPal, Anthropic, Cisco, Chainguard, Cohere и GenLab.

В России появится лаборатория для исследований в области безопасности ИИ

В продолжение темы о безопасном искусственном интеллекте. В России группа T-Bank AI Research объединила силы с Центральным университетом для создания исследовательской лаборатории для развития суверенного и безопасного ИИ. Лаборатория получила название Omut AI. ТАСС сообщает, что она будет специализироваться на разработке методов и подходов для контроля и безопасного использования технологий ИИ, а также поиске более эффективных архитектур для создания LLM и мультимодальных моделей. Доступ к исследованиям обещают открыть всему научному и индустриальному сообществу.

Новости
Главное за последнее время
Смотреть все
События
Вебинар «Как бизнесу использовать LLM в 2025 году»
События
Вебинар «Биометрические сервисы в реалиях 572-ФЗ»
События
Вебинар: как с помощью ИИ защитить бизнес и репутацию от дипфейков
События
Вебинар: разговор на языке данных
ВобъективеИИ
Предсказания Маска и конкуренция на ИИ-поле
Новости команды
MTS AI подписала декларацию об ответственной разработке генеративного ИИ
ВобъективеИИ
«Кентавр» для имитации поведения человека и ИИ-вдохновение от Кандинского
ВобъективеИИ
Машина Хабермаса и дружба ИИ с аддитивными технологиями
Технологии
MTS AI открыл публичный доступ к демоверсии Kodify
Решения
MTS AI создала ИИ-помощника для банковских сотрудников
ВобъективеИИ
Надежность LLM и альтернатива лидарам
События
FINOPOLIS 2024. 16-18 октября Сочи
События
AI Journey 2024. Ноябрь Москва
Кейсы
MTS AI и «ВижнСервис» представили систему MAX