БРК: цель и предназначение
Поддержать

БРК: цель и предназначение

В течение последних нескольких лет в исследовании “Moral Machine”, проводимом Массачусетским технологическим институтом, были изучены общественные предпочтения: как искусственный интеллект должен вести себя в различных ситуациях? Выяснилось, что это зависит от того, в какой стране оно произведено.

Например, в AV-версии классической “проблемы вагонетки”, некоторые могли бы предпочесть, чтобы машина ударила осужденного за убийство, прежде чем причинить вред другим, или чтобы она сбила пожилого человека, а не ребенка. Третьи могли бы утверждать, что AV должно просто рискнуть, чтобы избежать дискриминации на основе фактических данных.

Как правило, такие затруднительные ситуации зарезервированы для залов судебных заседаний или полицейских расследований постфактум. Но в случае с AV, выбор будет сделан в течение нескольких миллисекунд, а этого времени недостаточно для принятия обоснованного решения. Важно не то, что знаем мы, а то, что знает машина. Вопрос в том, какая информация должна быть заложена в AV об окружающих их людях. И надо ли предоставлять фирмам возможность предлагать различные этические системы для достижения конкурентного преимущества?

Рассмотрим следующий сценарий: автомобиль из Китая имеет заводские стандарты, отличные от автомобилей, произведенных в США, но поставляется и используется на территории США. Эти автомобили китайского производства и американского производства движутся к неизбежному столкновению. Какая система должна преобладать, если водитель китайского автомобиля имеет этические предпочтения, отличные от водителя американского автомобиля?

Помимо культурных различий в этических предпочтениях, необходимо учитывать различия данных положений из разных стран. Например, автомобиль китайского производства может иметь доступ к данным социальной оценки, что позволяет его алгоритму принятия решений включать дополнительные ресурсы, которые недоступны для американских автопроизводителей. Более полные данные могли бы привести к лучшим, более последовательным решениям, но должно ли это преимущество позволить одной системе отвергать другую?

Очевидно, что прежде чем AV массово выйдут на дорогу, мы должны будем определить, на ком лежит ответственность за принятие алгоритмических решений, будь то муниципальные власти, национальные правительства или многосторонние учреждения. Более того, нам понадобятся новые рамки для управления этим пересечением бизнеса и государства. Проблема заключается не только в том, как поведет себя AV в экстремальных ситуациях, но и в том, как компании будут взаимодействовать с различными культурами при разработке и внедрении алгоритмов принятия решений.

Несложно представить, что все производители AV просто будут рекламировать этические системы, которые ценят жизнь водителя превыше всего, или которые позволяют пользователю переключать свои собственные этические настройки. Чтобы предотвратить эту “трагедию общих ресурсов”, необходимы рамки для установления связи и координации решений между AV. Но при разработке таких систем в разных культурных контекстах, директивные органы и предприятия столкнутся с различными культурными представлениями о суверенитете, конфиденциальности и индивидуальной автономии.

Это создает дополнительные проблемы, поскольку системы ИИ не терпят двусмысленности. Разработка ИИ-приложения с нуля требует глубокой специфики; хорошо это или плохо, но эти системы делают только то, что вы им говорите. Это означает, что фирмам, правительствам и другим поставщикам услуг придется делать однозначный выбор при кодировании протоколов реагирования для различных ситуаций.

Тем не менее, прежде чем это произойдет, директивным органам необходимо будет установить сферу алгоритмической ответственности, чтобы определить, какие решения, если таковые имеются, должны быть оставлены на усмотрение компаний или отдельных лиц. Те, что находятся в ведении государства, должны быть обсуждены. И учитывая, что на этические и моральные вопросы нет простых ответов, вряд ли можно достичь консенсуса. За исключением окончательного решения, нам нужно будет создать системы, которые, по крайней мере, облегчат связь между AV и рассудят алгоритмические споры и дорожные происшествия.

Учитывая необходимость конкретизации при разработке алгоритмов принятия решений, само собой разумеется, что будет необходим международный орган для установления стандартов, в соответствии с которыми решаются моральные и этические дилеммы. В конце концов AV, являются лишь одним из приложений алгоритмического принятия решений. Заглядывая вперед, стандарты алгоритмической ответственности должны будут управляться во многих областях.

В конечном счете, первый вопрос, который нам надлежит решить, имеют ли фирмы право разрабатывать альтернативные этические рамки для принятия алгоритмических решений. Мы утверждаем, что у них этого права нет.

В эпоху ИИ, некоторые компоненты глобальных производственно-сбытовых цепочек в конечном итоге будут автоматизированы как само собой разумеющееся, и с этого момента они больше не будут рассматриваться в качестве областей, в которых компании могут добиться конкурентного преимущества. Процесс определения и вынесения решения по алгоритмической ответственности должен стать одной из таких областей. Так или иначе, решения будут приняты. Лучше, чтобы по ним было принято единое решение и как можно более демократично.

Марк Эспозито, профессор бизнеса и экономики, имеющий контракт с Hult International Business School и Гарвардским университетом, является соучредителем Nexus FrontierTech и научным сотрудником Школы государственного управления имени Мохаммеда бин Рашида в Дубае и Кембриджской бизнес-школы.

Теренс Це, профессор Европейской бизнес-школы ESCP в Лондоне, является соучредителем Nexus FrontierTech.

Джошуа Энтсмингер, исследователь в Nexus FrontierTech и старший научный сотрудник Ecole des Ponts Center по политике и конкурентоспособности.

Орели Жан, ученый в области вычислительной техники, является основателем In Silico Veritas, консультантом Boston Consulting Group и внештатным сотрудником Министерства образования Франции.

Copyright: Project Syndicate, 2019.
www.project-syndicate.org




Комментариев пока нет

Добавить комментарий

Ваш адрес email не будет опубликован.