Почему для будущего ИИ важна этика

Может ли «Римский призыв к этике» папы римского помочь сделать искусственный интеллект более ориентированным на человека?

Основные выводы

  • ИИ быстро развивается и усложняется, поэтому для него необходимо разработать этические основы.

  • Папа римский недавно призвал к обсуждению вопроса о том, как принимать во внимание этику при разработке ИИ в будущем.

  • Этичный ИИ должен быть объяснимым и непредвзятым.

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Искусственный интеллект (ИИ) призван изменить общество к лучшему, оказывая помощь в различных сферах жизни, будь то диагностика опасных для жизни заболеваний или помощь в ликвидации последствий стихийных бедствий. Алгоритмы ИИ также позволяют предприятиям получить такую аналитическую информацию, которая ранее была недоступна, и до сих пор мы наблюдали только часть его потенциала. Но по мере того как технология продолжает развиваться быстрыми темпами, она становится все более сложной и назревает потребность в создании этической основы.

«Сотрудничество будет играть ключевую роль в будущем ИИ, поскольку технологические компании, исследовательские организации и общественные лидеры собираются выработать способы его ответственного применения»

Недавно к дискуссии об этике ИИ присоединился и папа римский, что весьма удивительно. Признавая необходимость в руководящих принципах, обеспечивающих ответственное использование ИИ, папа Франциск в сотрудничестве с Microsoft* и IBM* выпустил Римский призыв к этике. Документ, выпущенный понтификом, призван стимулировать обсуждение этики и ИИ и призывает к тому, чтобы сделать технологию ИИ прозрачной, всеобъемлющей, ответственной, беспристрастной, надежной и безопасной.

Эти папские принципы ИИ направлены на развитие чувства ответственности и на призыв организаций к совместной работе над созданием ИИ с ориентацией на человека. Хотя может показаться странным, что лидер католической церкви должен сыграть какую-либо роль в принятии решения о том, как мы будем разрабатывать технологии будущего, привлечение ряда религиозных и общественных лидеров со всего мира может просто помочь решить одну из самых больших проблем ИИ — предвзятость. 

Борьба с предвзятостью

Системы искусственного интеллекта неизбежно отражают бессознательные предположения людей, которые их создают. Если все люди, вовлеченные в создание ИИ, принадлежат к одной и той же демографической группе, то алгоритмическая предвзятость неизбежна. Чтобы сделать ИИ справедливым и всеобъемлющим, важно, чтобы он прошел обучение с использованием качественных беспристрастных данных и чтобы в выборе этих данных участвовали люди из разных слоев общества и с разным мировоззрением.

Это связано с утверждением о том, что для соблюдения этических норм ИИ также должен быть объясняемым. Это означает, что для обеспечения прозрачности действия ИИ должны быть понятны людям. Для укрепления доверия к ИИ и ускорения его внедрения очень важно обеспечение большей подотчетности систем принятия решений.

По мере увеличения случаев использования ИИ в повседневной жизни растет потребность в этичности и прозрачности. Например, если ИИ используется для автоматизации принятия решений о найме или выдаче ипотечного кредита, это может иметь пагубные последствия, если алгоритм ИИ был обучен с непреднамеренной предвзятостью.

Вопросы конфиденциальности

Существуют также опасения по поводу конфиденциальности, когда ИИ используется правоохранительными органами. Например, ряд служб полиции по всему миру начали экспериментировать с технологией распознавания лиц, чтобы выявить людей, на которых выписаны ордера на арест или которые могут помочь в проводимом расследовании. Помимо вопросов конфиденциальности, системы распознавания лиц оказались скомпроментированы по этническому признаку, возрасту и полу часто потому, что они не были обучены с использованием разнообразных наборов данных1.

Несмотря на наличие проблем с использованием этического ИИ, он уже используется во многих компаниях и организациях и приносит положительные результаты. Инициатива Intel® «ИИ для общественного блага» использует ИИ для решения важных социальных проблем во всем мире, поддерживая организации с помощью технологий искусственного интеллекта и обширного опыта, чтобы помочь им ускорить свою работу.

Сотрудничество будет играть ключевую роль в будущем ИИ, поскольку технологические компании, исследовательские организации и общественные лидеры собираются выработать способы его ответственного применения. Призывы к регулированию и стандартизации в области ИИ уже привели к многочисленным дискуссиям о руководящих принципах этики, но они до сих пор весьма расплывчаты. Хотя невозможно создать один централизованный регулятор ИИ из-за широкого спектра приложений на основе ИИ в различных секторах и культурах, необходимо разработать определенные этические основы.

*Другие наименования и товарные знаки являются собственностью своих законных владельцев