Вы задумывались, может ли человечество создать этичный, справедливый, хороший, добрый итд ИИ, в мире, в котором нет единого понимания морали и справедливости?
Проблема 1. Данные.
Энциклопедийный пример проблемы моделей машинного обучения: COMPAS - система, внедренная в ряде штатов США в процесс судопроизводства. Программка на основе больших данных определяет вероятность совершения преступником повторного правонарушения (предвидит рецидив) и выдает рекомендации о смягчении / ужесточении приговора. Она не принимает решения, но безусловно влияет на мировоззрение судьи, принимающего решение.
Журналисты как-то расследовали эту систему и задетектили, что она чаще ошибочно выдавала высокий риск рецидива чернокожим обвиняемым. Почему? Обучена на реальных данных нашего несправедливого мира.
Модели определяют статистические закономерности и их цементируют и тиражируют.
Проблема 2. Справедливость.
Так уж вышло, что мы с вами можем очень по-разному определять справедливость какого-либо действия. Наше восприятие может зависеть от принадлежности к культуре, социальной группе, исторического контекста и пр.
Да ладно мы с вами, философия и этика тоже не достигли консенсуса в определении справедливости. Утилитаристы оценивают справедливость действия по результату, а деонтологи по моральным основаниям действия.
На примере проблемы вагонетки (несётся вагонетка, и если ничего не делать, она задавит 5 человек, а если переключите рычаг – вагонетка поедет по другому пути и задавит 1 человека. Что выбрать?):
- ▫️утилитаристы спасут 5, даже если придётся пожертвовать 1, тк главное - максимальная польза.
- ▫️деонтологи же считают, что намеренно убить 1 человека – морально недопустимо, даже ради спасения 5, тк есть принципы, которые нельзя нарушать.
Какую истину будем цементировать в моделях?
Проблема 3. Право на вмешательство.
Могут ли разработчики вмешиваться в процесс тренировки модели машинного обучения, чтобы насадить свое видение справедливости? Ок, видим что данные обижают чернокожих. Можно просто немножко поиграть со статистикой, чтобы уравновесить эту несправедливость?
Ну во-первых, так как алгоритмы - штука сложная (хоть и несколько проще чем мир, в котором мы живем), такое вмешательство может глобально привести к ошибкам там, где мы их не ждем, то есть к новым несправедливостям.
А во-вторых, см п. 2, какую справедливость разработчики будут насаждать?
Вывод: моделирование, как и посты о большом в этом канале - это всегда упрощение, и порой - избыточное.
- ▪️Можно ли смоделировать справедливый мир, не достигнув согласия о том, что есть справедливость? Так же как и написать лекцию по этике ИИ в одном посте, не будучи философом - крайне маловероятно.
- ▪️Можем ли мы доверить кому-то такую задачку? Ну, не зная об этом, уже доверили. Вот такое оно - доверие в 21 веке.
💭 Интересно, у руководства компаний-разработчиков автономных авто превалируют утилитаристы или деонтологи?