Способности ИИ в области финансов и финансы для развития способностей ИИ

fgfg Picture

Новый выпуск #ВобъективеИИ расскажет о способностях больших моделей предсказывать общественное мнение и динамику акций, а также читать сигналы по изменению ключевой ставки. Помимо этого, вы узнаете о новой структуре Евросоюза для аудита ИИ-алгоритмов и о том, почему Сэм Альтман прогнозирует скорый конец эпохи развития ML-моделей за счет масштаба.

AI-focused digest – новости ИИ-сферы

Выпуск №16,  6-20 апреля 2023

Развитие ИИ за счет масштаба подходит к концу — прогноз Альтмана

На прошлой неделе генеральный директор OpenAI Сэм Альтман, выступая в Массачусетском технологическом институте, заявил, что дальнейший прогресс в искусственном интеллекте не будет связан с созданием все более крупных моделей. Нужно будет искать другие способы, как сделать их лучше. Как пишет VentureBeat, вероятная причина такого заявления – финансовая. Точнее – непомерные расходы на создание все больших моделей. Для обучения современной LLM нужны вычислительные ресурсы на сотни миллионов долларов. Этих ресурсов требуется все больше и больше, а значит и затраты растут. Плюс спрос на графические процессоры для ИИ сейчас такой, что не всегда их можно мгновенно получить по запросу. Даже технологическим гигантам типа Microsoft и Илону Маску, недавно создавшему свою компанию для участия в ИИ-гонке, нужно стоять в очереди. Но есть и другое объяснение словам Альтмана. В частности, многие разделяют мнение, что масштаб современных моделей больше, чем это реально необходимо, и что количество параметров — «ложное измерение качества модели». Ожидается, что в дальнейшем прорыв в области ИИ будет связан с улучшением архитектуры моделей, повышением эффективности данных и совершенствованием алгоритмов. 

ChatGPT может отличать «ястребов» от «голубей» и предсказывать динамику акций по заголовкам

Эта рабочая неделя началась с обсуждения статьи в Bloomberg об использовании GPT-технологии в мире финансов. Ссылаясь на два недавних исследования, агентство пишет, что весь хайп последних месяцев касательно влияния и способностей генеративного ИИ в этой области полностью оправдан. Согласно первому исследованию, ChatGPT может не хуже людей расшифровывать сообщения Федеральной резервной системы США по вопросам денежно-кредитной политики. В частности, он отлично справляется с определением «ястребиных» (о повышении процентных ставок) и голубиных» (о снижении процентных ставок) сигналов в заявлениях ФРС. При этом бот даже может так же грамотно, как и финансовый аналитик, обосновать свое мнение. А результаты второй научной работы демонстрируют способность ChatGPT предсказывать динамику цен на акции. Исследователи предложили боту притвориться финансовым экспертом и на основе заголовков корпоративных новостей сделать заключение о том, хорошо или плохо это для роста стоимости акций компаний. Технология смогла правильно проанализировать последствия новостей. В статье Bloomberg подчеркивается, что модель справляется с вышеупомянутыми задачами даже без специального обучения, но ее донастройка на специфических примерах может дать еще лучшие результаты. 

Bloomberg берет на вооружение генеративный ИИ

На этот раз новость не от Bloomberg, а о Bloomberg. Агентство финансовой информации намерено интегрировать в свое ПО ML-модель типа GPT, чтобы автоматизировать некоторые функции, обычно выполняемые человеком. Например, ИИ от Bloomberg может придумывать заголовки на основе анализа текста статьи, определять, являются заголовки «бычьими» или «медвежьими» для инвесторов, подсказывать имена людей и названия компаний и прочее. Примечательно, что технологическое подразделение инфогиганта не стало использовать разработку OpenAI, а воспользовалась свободно доступными на рынке инструментами и адаптировала их к своему хранилищу проприетарных данных. Подробнее читайте на CNBC

Языковые модели на медиа-диетах могут предсказывать общественное мнение

Ученые из MIT и Гарвардского университета доказали способность языковых моделей, обученных на медиа-диетах (медиа-контенте, потребляемом отдельным человеком или группой), предсказывать общественное мнение. Основанием для научной работы послужили недостатки традиционных опросов, обычно использующихся для изучения отношения общества к тем или иным явлениям. Исследователи взяли за базу LLM BERT и настраивали ее в зависимости от той или иной медиа-диеты. То есть, в качестве входных данных модель использует информацию о том, какие новости, онлайн-ресурсы, радио и телепередачи потребляет та или иная группа людей, а на выходе выдает прогноз, как эта группа ответит на тот или иной интересный исследователям вопрос. Чтобы проверить, насколько хорошо модель справляется с задачей, ученые сравнили результаты ее вычислений с результатами общенациональных репрезентативных опросов в США касательно пандемии COVID-19. Выводы: модель способна предсказывать человеческие суждения и особенно хорошо это делает в отношении людей, которые внимательно следят за СМИ. Плюс результаты тестов согласуются с другой научной литературой касательно того, как медиа влияют на мнения по той или иной тематике. Использовать эту способность языковых моделей можно как всегда — во благо и во вред: и для выявления потенциально опасных для людей сообщений, и для манипуляции общественным мнением, например. Но лучше ознакомиться с исследованием полностью, прежде чем составить своё суждение. Препринт лежит здесь.

ИИ-алгоритмы под контролем Еврокомиссии

Европейская комиссия создала новое подразделение — Европейский центр алгоритмической прозрачности (The European Centre for Algorithmic Transparency), — задачей которого будет изучение ИИ-алгоритмов, лежащих в основе онлайн-платформ и поисковиков. Цель — своевременное выявление и устранение любых рисков, которые влечет за собой их использование. Сообщается, что центр в прямом смысле будет заглядывать под капот поисковых систем и онлайн-платформ и выяснять, не способствуют ли они распространению незаконного или вредоносного контента, например, и не нарушают ли цифровое законодательство Евросоюза. Список платформ, которым будет уделяться особое внимание, будет сформирован в ближайшее время. А пока он формируется, можно ознакомиться с этой статьей на TechCrunch, чтобы узнать подробности и политический аспект этой инициативы. 

Новости
Главное за последнее время
Смотреть все
События
Вебинар «Как бизнесу использовать LLM в 2025 году»
События
Вебинар «Биометрические сервисы в реалиях 572-ФЗ»
События
Вебинар: как с помощью ИИ защитить бизнес и репутацию от дипфейков
События
Вебинар: разговор на языке данных
ВобъективеИИ
Предсказания Маска и конкуренция на ИИ-поле
Новости команды
MTS AI подписала декларацию об ответственной разработке генеративного ИИ
ВобъективеИИ
Многослойные чипы и польза галлюцинаций
Технологии
MTS AI запускает открытую большую языковую модель
ВобъективеИИ
ИИ-интриги и промышленные коботы
ВобъективеИИ
Снижение цен на лидары и расцвет промышленной роботизации в Китае
ВобъективеИИ
«Кентавр» для имитации поведения человека и ИИ-вдохновение от Кандинского
ВобъективеИИ
Машина Хабермаса и дружба ИИ с аддитивными технологиями
Технологии
MTS AI открыл публичный доступ к демоверсии Kodify
Решения
MTS AI создала ИИ-помощника для банковских сотрудников
ВобъективеИИ
Надежность LLM и альтернатива лидарам