По оценкам российского правительства, объем национального рынка ИИ в 2023 году уже достиг 650 млрд рублей, разработками в этой области занимаются более тысячи компаний. Из-за внедрения нейросетей практически во всех сферах ИТ-эксперты регулярно обсуждают этические вопросы применения ИИ и возможные ограничения этой технологии. Однако некоторые компании сумели сделать свои ML-технологии более этичными и даже получили от этого бизнес-эффект. Рассказываем, как ответственный подход к разработке ИИ может быть не только социально значимым, но и выгодным.
IBM
Международная ИТ-компания IBM активно инвестирует в разработку ответственного ИИ, в том числе через партнерства с профильными организациями. Например, в 2020 году компания вложила $20 млн для создания лаборатории технической этики вместе с университетом Нотр-Дама. Она регулярно проводит прикладные междисциплинарные исследования по ответственному использованию технологий.
При разработке ИИ-решений IBM исходит из того, что такие технологии должны вызывать доверие у пользователей. Ключевые идеи и принципы такого подхода во многом схожи с положениями различных этических кодексов: это справедливость (равное отношение ко всем людям), прозрачность работы и объяснимость результатов, надежность и приватность данных. Также IBM сформулировала три ключевых принципа доверия к искусственному интеллекту:
- ИИ должен дополнять, а не заменять человека;
- данные и выводы принадлежат их создателю;
- новые технологии должны быть прозрачными и объяснимыми.
На практике компания регулярно анализирует спорные сценарии использования и при необходимости рассматривает в совете по этике ИИ с участием топ-менеджеров. Также компания оценивает эти кейсы на соответствие нормам комплаенса, юридическим требованиям и другим ограничениям. Кроме того, IBM описывает методы, инструменты и лучшие практики создания ИИ-систем, которые затем разработчики и дата-аналитики используют в новых проектах.
Ответственный ИИ прежде всего приносит пользу обществу, однако такой подход может положительно сказаться и на бизнес-показателях самого разработчика. По оценкам IBM, компании, которые уделяют внимание этике генеративного ИИ, на 27% чаще сообщают о росте выручки, при этом 75% руководителей считают, что этичность технологий может стать конкурентным преимуществом на рынке. Отчасти это связано с тем, что подобные вопросы считаются одной из ключевых проблем в интеграции генеративного ИИ, однако решить их самостоятельно компании зачастую не могут, так как для этого у них нет какого-либо специального органа или структуры.
Возврат инвестиций далеко не всегда происходит традиционным способом в виде роста выручки или снижения затрат, отмечают в IBM. Зачастую ответственный ИИ положительно влияет на репутацию компании-разработчика: публикации в СМИ способны привлечь новых инвесторов и повысить лояльность клиентов, а также помогут удержать сотрудников и повысить их моральный дух. Также эти инвестиции позволят обеспечить гибкость в дальнейшем развитии генеративного ИИ — например, компания сможет качественно оценить безопасность технологии, учесть возможные риски и избежать их на этапе разработки новых решений.
MTS AI
Компания MTS AI при разработке собственной генеративной нейросети Cotype обучает ее таким образом, чтобы она отвечала на запросы наиболее этично и в соответствии с интересами как компании, так и общества в целом. Это помогает компании соблюдать требования законодательства. Но еще более важно, что безопасные нейросети обеспечивают доверие и высокую лояльность к технологии среди пользователей — они будут уверены, что не столкнутся с неприемлемым для них контентом, поэтому продолжат пользоваться Cotype на регулярной основе.
Для этого нейросеть обучают на специально размеченных этичных датасетах: эталонных ответах на спорные вопросы, заранее подготовленные специалистами компании. MTS AI разработала специальные инструкции: они содержат перечень тем, на которые модель должна отвечать корректно, соблюдая этические нормы и законодательство, либо не отвечать вообще. Среди них — вопросы на темы каких-либо противоправных действий.
Нейросеть научилась определять чувствительные запросы и, если она понимает, что ответ можно использовать для совершения противоправных действий, то она не ответит на вопрос и предложит обсудить другую тему.
Один из ключевых этических принципов работы нейросетей MTS AI состоит в том, что у ИИ не может быть своего мнения, поэтому она не должна давать оценочные суждения. Также она не может предоставлять персональные советы и таким образом брать на себя ответственность за какие-либо рекомендации. Это относится, например, к финансовой сфере — ИИ-модель не должна отвечать, как сэкономить на ремонте или дешевле купить билет на концерт, потому что это может вызвать финансовые риски для пользователя. К тому же, нейросети все еще могут дать ошибочный или неточный ответ, тем самым вводя пользователя в заблуждение.
Поэтому в спорных вопросах нейросеть отвечает с дисклеймером, что ИИ не может дать совет, но может привести несколько фактов, на основании которых человек может сам сделать выводы. При этом ML-модель должна предоставить ссылки на источники информации в ответе. Чтобы обеспечить достоверность ответов, MTS AI на этапе обучения нейросети учитывает надежность тех или иных источников информации. Таким образом ИИ не станет использовать данные с сомнительных интернет-форумов, но будет активно ссылаться на научные публикации. В целом, совершенствование нейросетей в плане надежности и достоверности предоставляемой ими информации происходит постоянно, и разработчики не перестают работать в этом направлении.
Институт RAI и AltaML
Многие специалисты из крупных организаций, которые уже занимаются развитием ответственного ИИ, делятся экспертизой с другими компаниями, которые только планируют внедрять этические подходы к разработке нейросетей. Например, в этом помогает международный некоммерческий Институт ответственного ИИ (RAI Institute), в экспертный состав которого входят сотрудники IBM, Dell Technologies, Lloyds Banking Group, а также научные сотрудники множества университетов. Институт проводит оценку соответствия нейросетей этическим нормам.
Одним из клиентов RAI Institute стал ИИ-разработчик AltaML — стартап, который создает ML-решения для энергетики, промышленности, здравоохранения и других отраслей. Компания специализируется на ответственном подходе к внедрению ИИ. Для этого она прошла аудит RAI Institute и в рамках этого процесса оптимизировала многие внутренние процессы: например, усилила контроль за выполнением политик и внутренних директив и обеспечила надежную инфраструктуру для хранения конфиденциальных данных. Также компания использует различные протоколы RAI Institute, по которым можно проверить этичность технологий — например, на их предвзятость по той или иной теме.
При этом, по словам сооснователя AltaML Николь Янсен, создание ответственного ИИ — это не разовая работа, а постоянная проверка этичности таких решений. Компания обеспечивает регулярный мониторинг своих проектов в связи с тем, что со временем ML-модели могут стать предвзятыми, если оставить их без контроля.
Использование практик ответственного ИИ помогло укрепить репутацию бренда на рынке, а также привлечь и удержать технических специалистов, которым близка культура открытости и инноваций. Кроме того, такие этичные разработки влияют на их восприятие в обществе: они позволяют развеять страхи вокруг того, как будут использоваться нейросети, что они заменят людей на рабочих местах и так далее.