10 steps to educate your company on AI fairness

Обновите технологию и стратегию корпоративных данных до Трансформация 2021.


Поскольку компании все чаще используют искусственный интеллект, им необходимо решать проблемы доверия.

Вот 10 практических мер, которые компании должны использовать для обеспечения справедливости в отношении ИИ. Они включают создание AI правосудие устав и проведение обучения и тестирования.

Технологии на основе данных и искусственный интеллект (ИИ) движут нашим миром сегодня — от прогнозирования появления следующего варианта COVID-19 до наиболее эффективного пути. Во многих областях широкая общественность глубоко уверена, что алгоритмы, поддерживающие этот опыт, разработаны справедливым образом.

Однако это доверие легко подорвать. Рассмотрим, например, программное обеспечение для набора персонала что из-за нерепрезентативных данных по обучению он наказывает приложения, содержащие слово «женщины», или систему кредитного рейтинга, в которой отсутствуют реальные доказательства кредитоспособности в реальном мире, и в результате определенные группы получают выгоду более низкие кредитные лимиты или в кредитах отказано.

Реальность такова, что технологии развиваются быстрее, чем образование и обучение справедливому искусственному интеллекту. Люди, которые обучают, развивают, внедряют и продают этот опыт, основанный на данных, часто не знают о нем. последствия их тяжелой работы второго или третьего порядка.

В рамках Всемирного экономического форума Совет глобального будущего по искусственному интеллекту для человечества, команда экспертов, исследователей и бизнес-консультантов в области искусственного интеллекта, мы предлагаем 10 практических мер, которые компании должны использовать для обеспечения справедливого искусственного интеллекта.

1. Возложите ответственность за обучение искусственного интеллекта.

Назначьте руководителя отдела этики искусственного интеллекта (CAIO), который вместе с междисциплинарным советом по этике (включая представителей науки о данных, регулирующих органов, связей с общественностью, коммуникаций и человеческих ресурсов) должен отвечать за разработку и проведение учебных мероприятий в искусственный интеллект. CAIO также должен быть «омбудсменом», к которому сотрудники должны обращаться в случае возникновения проблем со справедливостью, а также представителем для нетехнических сотрудников. В идеале эта роль должна быть напрямую подчинена Генеральному директору для видимости и реализации.

2. Определите справедливость для вашей организации.

Создайте шаблон благотворительного контракта AI Justice и спросите все отделы которые активно используют ИИ, чтобы завершить его в своем контексте. Это особенно важно для руководителей бизнес-направлений и владельцев продуктов и услуг.

3. Обеспечьте равенство ИИ во всей цепочке поставок.

Требуйте от поставщиков, которых вы используете, у которых есть ИИ, встроенный в их приобретенные продукты и услуги — например, кадровое агентство, которое может использовать ИИ для отбора кандидатов — также выполнить Хартию AI Justice и соблюдать политику справедливости AI компании. Это особенно важно для отдела закупок и для поставщика.

4. Обучайте сотрудников и заинтересованные стороны с помощью обучения и подхода «учиться на практике».

Требовать от всех сотрудников обязательного обучения и сертификации по принципам искусственного интеллекта — точно так же, как от сотрудников требуется соблюдение кодексов делового поведения. Проведите обучение технического персонала тому, как создавать модели, не нарушающие принципы справедливости. Все тренинги должны использовать знания хартии правосудия в области искусственного интеллекта для непосредственного решения проблем, стоящих перед обществом. Убедитесь, что содержание курса регулярно проверяется Советом по этике.

5. Создайте план справедливости в отношении ИИ HR для людей.

План обеспечения справедливости кадрового ИИ должен включать ежегодный обзор кадровой службы для оценки разнообразия команды, работающей над технологиями на основе данных и ИИ, а также для явного контроля и повышения квалификации и навыков, рекламируемых в настоящее время для разработки ключевых продуктов, связанных с ИИ. Роль (в качестве владельца продукта, специалиста по данным и инженера по обработке данных) по обеспечению осведомленности о справедливости является частью должностной инструкции.

6. Испытайте справедливость ИИ, прежде чем запускать какие-либо технологии.

Прежде чем разрешить активацию любого алгоритма ИИ, потребуйте, чтобы отделы и поставщики запускали и публиковали тесты капитала внутри компании. Как только вы узнаете, к каким группам можно относиться несправедливо из-за искажения данных, смоделируйте пользователей в этой группе и отслеживайте результаты. Продуктовые команды могут использовать это для итерации и улучшения своего продукта или услуги перед их вводом в эксплуатацию. Инструменты с открытым исходным кодом, такие как Microsoft Fairlearn, может помочь в проведении анализа для проверки исхода правосудия.

7. Расскажите о своем подходе к правосудию ИИ.

Проводите тренинги по вопросам справедливости с клиентами и государственными служащими, которые проходят тесты на честность в отношении любого нового или обновленного продукта или услуги. Это особенно важно для маркетинга и внешних коммуникаций, а также для групп обслуживания клиентов.

8. Посвящайте постоянный пункт на заседаниях правления процессам правосудия с использованием искусственного интеллекта.

Это обсуждение должно включать отчеты о ходе выполнения и соблюдении требований, темы, поднятые директором по этике AI и Советом по этике, а также результаты проверки справедливых результатов правосудия.

9. Убедитесь, что тренировка держится

Регулярно отслеживайте и сообщайте об участии и завершении судебной деятельности с использованием ИИ, а также о доказанном влиянии управления правосудием с точки зрения истинной ценности для бизнеса. Предоставьте эти обновления руководителям отделов и непосредственным руководителям для связи с сотрудниками, чтобы повысить эффективность и продуктивность организации с помощью более справедливых платформ и программного обеспечения искусственного интеллекта.

10. Документируйте все

Задокументируйте свой подход к правосудию в области ИИ и сообщите об этом сотрудникам и поставщикам, проводящим обучение, и крупным мероприятиям, в том числе для клиентов и инвесторов.

[This story originally appeared on 10 steps to educate your company on AI fairness | World Economic Forum (weforum.org). Copyright 2021.]

Наджа Юсиф исполнительный директор и партнер компании Бостонская консалтинговая группа и вместе управляет финансовыми учреждениями в Великобритании, Нидерландах и Бельгии.

Марк Миневич является председателем по политике в области искусственного интеллекта в Международном исследовательском центре искусственного интеллекта под эгидой ЮНЕСКО, Институте Йозефа Стефана.

VentureBeat

Миссия VentureBeat — быть цифровым квадратом для технических специалистов, которые получают знания о технологиях трансформации и транзакциях. На нашем веб-сайте представлена ​​основная информация о технологиях и стратегиях обработки данных, которые помогут вам руководить своей организацией. Мы приглашаем вас стать членом нашего сообщества, чтобы получить доступ к:

  • актуальная информация по интересующим вас темам
  • наши информационные бюллетени
  • закрытые идеи лидеров контента и доступ со скидкой к нашим ценным мероприятиям, таким как Трансформация 2021: Больше информации
  • сетевые функции и многое другое

Стать членом

Add a Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *