Ключевой компонент успешного искусственного интеллекта: доверие
Искусственный интеллект волнует всех — как из-за его огромного потенциала, так и из-за присущих ему рисков.
Для снижения этих рисков решающее значение имеют управление и регулирование.
В связи с вступлением в силу в июне Закона ЕС об ИИ мы поговорили с Дэв Шталькопф, исполнительным вице-президентом и главным юридическим директором Cisco, чтобы узнать ее мнение о том, как регулирование может способствовать созданию безопасного, ответственного и заслуживающего доверия ИИ.
Спасибо, разработчик! Так много говорят об ответственном использовании ИИ. Какова роль регулирования в обеспечении этого?
Спасибо, Кевин. В Cisco мы твердо убеждены в том, что ИИ необходимо использовать ответственно. На кону доверие и безопасность. А регулирование - мощный инструмент сохранения того и другого. Cisco поддерживает важную работу правительств по всему миру, поскольку они в срочном порядке принимают меры как по созданию средств защиты, так и по стимулированию инноваций.
Это непростая задача. Может ли регулирование на самом деле выполнять и то, и другое?
Таково намерение. И именно в этом заключается сотрудничество государственного и частного секторов. Мы считаем, что наиболее эффективный способ обеспечить безопасное и заслуживающее доверия использование ИИ - это внедрение глобально совместимых нормативных актов. Вот почему Cisco занимается разработкой политики и пропагандой по всему миру, например, работает в Совете по охране ИИ Министерства внутренней безопасности США, консультируя по безопасной разработке и внедрению ИИ в критически важной инфраструктуре США, участвует в процессе G7 в Хиросиме по разработке международных руководящих принципов для ИИ и кодекса поведения для продвинутых разработчиков ИИ, а также подписывает Римский призыв продвигать развитие технологий ИИ, которые являются прозрачными, подотчетными и социально полезными. Мы также участвовали в разработке Закона ЕС об искусственном интеллекте, первого свода правил, касающихся искусственного интеллекта с глобальным охватом.
Закон ЕС об искусственном интеллекте использует риск-ориентированный подход к регулированию искусственного интеллекта. Что это значит?
Это подход, при котором конкретные требования варьируются в зависимости от уровня риска, который представляет технология или система. Например, искусственный интеллект, применяемый к биометрии, особенно в таких областях, как распознавание лиц и голоса, будет считаться высокорискованным. Как и использование искусственного интеллекта для фильтрации резюме при принятии решений о приеме на работу. В таких случаях предвзятость может проникнуть внутрь и повлиять на результаты. Но что-то вроде простого чат-бота с часто задаваемыми вопросами было бы менее рискованным вариантом использования. Это означает, что компаниям необходимо будет четко осознавать, как они интегрируют искусственный интеллект в свои процессы и системы, понимать соответствующий уровень риска и внедрять соответствующие меры по снижению рисков и защите.
Соответствует ли это подходу Cisco к управлению искусственным интеллектом?
Да, мы поддерживаем продуманные, основанные на оценке рисков подходы к регулированию ИИ. По сути, это отражает наш собственный внутренний подход к управлению ИИ, который формировался в течение нескольких лет.
В 2018 году мы опубликовали заявление о нашей приверженности активному соблюдению прав человека при проектировании, разработке и использовании ИИ. В 2022 году мы официально закрепили это обязательство в Принципах ответственного использования ИИ компании Cisco. Они основаны на принципах прозрачности, справедливости, подотчётности, конфиденциальности, безопасности и надёжности и более подробно описывают нашу позицию в отношении ИИ. Мы воплотили эти принципы в жизнь с помощью нашей системы ответственного использования ИИ, разработанной в соответствии с системой управления рисками ИИ NIST, которая, по нашему мнению, устанавливает прочный отраслевой стандарт и надёжную основу для взаимодействия.
Затем, в 2023 году, мы использовали наши принципы и структуру в качестве основы для создания процесса оценки воздействия ИИ. Мы используем эту оценку во всех случаях применения ИИ, будь то когда наши инженерные команды разрабатывают продукт или функцию на основе ИИ или когда Cisco привлекает стороннего поставщика для предоставления инструментов или услуг ИИ для наших внутренних операций.
Но эффективное управление — это путь, а не конечная цель. Мы продолжим обновлять и адаптировать наш подход с учётом новых вариантов использования и, конечно, новых стандартов и правил.
Как вы говорите, это непрерывный путь. Но чему мы научились из более ранних технических регламентов, имеющих глобальное влияние, таких как Общие правила ЕС по защите данных (GDPR)?
Я думаю, что есть два основных вывода. Во-первых, ответственный ИИ начинается с обеспечения конфиденциальности. В рамках наших усилий по защите GDPR мы внедрили конфиденциальность как часть жизненного цикла безопасной разработки Cisco и создали специальную команду для реализации этой работы и контроля за ней. Большая часть этой работы была ускорителем и дорожной картой, поскольку мы стремимся создать такой же надежный подход для ИИ, основанный на безопасности и доверии.
Во-вторых, Cisco изучает влияние GDPR и других законов о конфиденциальности с 2019 года. И год за годом респонденты нашего опроса Cisco Data Privacy Benchmark рассказывают о положительном влиянии законов о конфиденциальности на их организации. Наш ежегодный опрос Cisco Consumer Privacy Survey также показал, что потребители хотят, чтобы правительства играли ведущую роль в защите данных. И это подтвердило, что строгие правила конфиденциальности повышают доверие клиентов к тому, что организации надлежащим образом обращаются с их данными. Я считаю, что мы увидим аналогичный уровень поддержки законодательства об искусственном интеллекте.
Возвращаясь к Закону ЕС об искусственном интеллекте, отметим, что он вступит в силу в течение следующих 6–36 месяцев. Как организациям следует подготовиться?
Опять же, это первый законодательный акт в области ИИ, имеющий глобальные последствия, но он точно не будет последним. Если вы сотрудничаете с клиентом, партнёром или поставщиком, использующим ИИ, вам будет важно понимать их подход к защите клиентов и снижению рисков, связанных с ИИ. И если у организаций нет надёжной программы управления ИИ, сейчас самое время её создать.
Грамотное управление — это возможность, а не препятствие. Оно может стимулировать инновации, укреплять репутацию бренда и повышать доверие потребителей. При наличии надлежащих принципов и структур ИИ организации могут быстро выявлять, понимать и снижать потенциальные риски, а также сохранять доверие сотрудников, клиентов и заинтересованных сторон.
Итак, все сводится к укреплению доверия.
Да! Безопасный, заслуживающий доверия, прозрачный, надёжный и справедливый подход к ИИ и документирование вашего процесса — например, с помощью оценки рисков — будут иметь ключевое значение. ИИ обладает огромным потенциалом для добра. Но только если мы всё сделаем правильно. Я верю, что мы можем добиться этого, работая сообща — технологи, клиенты, правительства, научные круги.
Получить подробную информацию или проконсультироваться можно на сайте официального поставщика Cisco в России.
Оригинал: https://newsroom.cisco.com/c/r/newsroom/en/us/a/y2024/m05/a-key-ingredient-to-successful-ai-trust.html