Про справедливый ИИ в несправедливом мире

Про No-Code, AI и другие технологии, которые делают нашу жизнь проще. Канал исследователя и ноукодера. Контакт для связи: @natellanur

искусственный интеллектсправедливостьCOMPAS

Вы задумывались, может ли человечество создать этичный, справедливый, хороший, добрый итд ИИ, в мире, в котором нет единого понимания морали и справедливости?

Проблема 1. Данные.

Энциклопедийный пример проблемы моделей машинного обучения: COMPAS - система, внедренная в ряде штатов США в процесс судопроизводства. Программка на основе больших данных определяет вероятность совершения преступником повторного правонарушения (предвидит рецидив) и выдает рекомендации о смягчении / ужесточении приговора. Она не принимает решения, но безусловно влияет на мировоззрение судьи, принимающего решение.

Журналисты как-то расследовали эту систему и задетектили, что она чаще ошибочно выдавала высокий риск рецидива чернокожим обвиняемым. Почему? Обучена на реальных данных нашего несправедливого мира.

Модели определяют статистические закономерности и их цементируют и тиражируют.

Проблема 2. Справедливость.

Так уж вышло, что мы с вами можем очень по-разному определять справедливость какого-либо действия. Наше восприятие может зависеть от принадлежности к культуре, социальной группе, исторического контекста и пр.

Да ладно мы с вами, философия и этика тоже не достигли консенсуса в определении справедливости. Утилитаристы оценивают справедливость действия по результату, а деонтологи по моральным основаниям действия.

На примере проблемы вагонетки (несётся вагонетка, и если ничего не делать, она задавит 5 человек, а если переключите рычаг – вагонетка поедет по другому пути и задавит 1 человека. Что выбрать?):

  • ▫️утилитаристы спасут 5, даже если придётся пожертвовать 1, тк главное - максимальная польза.
  • ▫️деонтологи же считают, что намеренно убить 1 человека – морально недопустимо, даже ради спасения 5, тк есть принципы, которые нельзя нарушать.

Какую истину будем цементировать в моделях?

Проблема 3. Право на вмешательство.

Могут ли разработчики вмешиваться в процесс тренировки модели машинного обучения, чтобы насадить свое видение справедливости? Ок, видим что данные обижают чернокожих. Можно просто немножко поиграть со статистикой, чтобы уравновесить эту несправедливость?

Ну во-первых, так как алгоритмы - штука сложная (хоть и несколько проще чем мир, в котором мы живем), такое вмешательство может глобально привести к ошибкам там, где мы их не ждем, то есть к новым несправедливостям.

А во-вторых, см п. 2, какую справедливость разработчики будут насаждать?


Вывод: моделирование, как и посты о большом в этом канале - это всегда упрощение, и порой - избыточное.

  • ▪️Можно ли смоделировать справедливый мир, не достигнув согласия о том, что есть справедливость? Так же как и написать лекцию по этике ИИ в одном посте, не будучи философом - крайне маловероятно.
  • ▪️Можем ли мы доверить кому-то такую задачку? Ну, не зная об этом, уже доверили. Вот такое оно - доверие в 21 веке.

💭 Интересно, у руководства компаний-разработчиков автономных авто превалируют утилитаристы или деонтологи?