вторник, 13 апреля 2021
,
USD/KZT: 412.24 EUR/KZT: 470.98 RUR/KZT: 5.81
Председатель ОБСЕ встретилась не только с президентом, но и с представителями гражданского общества Навальный пожаловался, что ему не дают читать Коран Активы казахстанских банков выросли до 32 трлн тенге Минздрав «потерял» предложения по повышению  прозрачности системы здравоохранения Во сколько обошлась "Туркестанская Венеция"? Путин распорядился отметить победу над Золотой Ордой Алиев требует Ереван ответить, откуда Армения получила "Искандер-М" Нефтяники отказываются от вакцинации, боюсь потерять надбавки Индия одобрила «Спутник V» Казахстан: ВВП слегка растет Россия разместила на границе с Украиной и в Крыму свыше 80 000 военных Власти готовы платить за оружие до 300 тысяч В Беларуси прекращено вещание Euronews Без ПЦР-справки на борт не пустят Ограничить депутатство двумя сроками предлагает помощник мажилисмена Зеленский запросил переговоры с Путиным. Песков сделал заявление Кыргызстан предложил создать единый электроэнергетический рынок для членов ЕАЭС Политзаключенный Асет Абишев: «Отчет НПМ о моем посещении – лживый» В Алматы протестующие собирают ночевать у здания агентства по финнадзору Прокуратура Алматы начала проверку скорой помощи Узбекистан безвозмездно построит школу в Карабахе Бедных стало больше, а элита все богатеет Команда Навального получила премию за фильм «Дворец для Путина» Жители села в ЗКО пошли наперекор акимату и добились своего Акиматы выдавали пастбища с нарушениями земельного законодательства РК

Есть ли у машин мораль и национальность?

В течение последних нескольких лет в исследовании “Moral Machine”, проводимом Массачусетским технологическим институтом, были изучены общественные предпочтения: как искусственный интеллект должен вести себя в различных ситуациях? Выяснилось, что это зависит от того, в какой стране оно произведено.

Например, в AV-версии классической “проблемы вагонетки”, некоторые могли бы предпочесть, чтобы машина ударила осужденного за убийство, прежде чем причинить вред другим, или чтобы она сбила пожилого человека, а не ребенка. Третьи могли бы утверждать, что AV должно просто рискнуть, чтобы избежать дискриминации на основе фактических данных.

Как правило, такие затруднительные ситуации зарезервированы для залов судебных заседаний или полицейских расследований постфактум. Но в случае с AV, выбор будет сделан в течение нескольких миллисекунд, а этого времени недостаточно для принятия обоснованного решения. Важно не то, что знаем мы, а то, что знает машина. Вопрос в том, какая информация должна быть заложена в AV об окружающих их людях. И надо ли предоставлять фирмам возможность предлагать различные этические системы для достижения конкурентного преимущества?

Рассмотрим следующий сценарий: автомобиль из Китая имеет заводские стандарты, отличные от автомобилей, произведенных в США, но поставляется и используется на территории США. Эти автомобили китайского производства и американского производства движутся к неизбежному столкновению. Какая система должна преобладать, если водитель китайского автомобиля имеет этические предпочтения, отличные от водителя американского автомобиля?

Помимо культурных различий в этических предпочтениях, необходимо учитывать различия данных положений из разных стран. Например, автомобиль китайского производства может иметь доступ к данным социальной оценки, что позволяет его алгоритму принятия решений включать дополнительные ресурсы, которые недоступны для американских автопроизводителей. Более полные данные могли бы привести к лучшим, более последовательным решениям, но должно ли это преимущество позволить одной системе отвергать другую?

Очевидно, что прежде чем AV массово выйдут на дорогу, мы должны будем определить, на ком лежит ответственность за принятие алгоритмических решений, будь то муниципальные власти, национальные правительства или многосторонние учреждения. Более того, нам понадобятся новые рамки для управления этим пересечением бизнеса и государства. Проблема заключается не только в том, как поведет себя AV в экстремальных ситуациях, но и в том, как компании будут взаимодействовать с различными культурами при разработке и внедрении алгоритмов принятия решений.

Несложно представить, что все производители AV просто будут рекламировать этические системы, которые ценят жизнь водителя превыше всего, или которые позволяют пользователю переключать свои собственные этические настройки. Чтобы предотвратить эту “трагедию общих ресурсов”, необходимы рамки для установления связи и координации решений между AV. Но при разработке таких систем в разных культурных контекстах, директивные органы и предприятия столкнутся с различными культурными представлениями о суверенитете, конфиденциальности и индивидуальной автономии.

Это создает дополнительные проблемы, поскольку системы ИИ не терпят двусмысленности. Разработка ИИ-приложения с нуля требует глубокой специфики; хорошо это или плохо, но эти системы делают только то, что вы им говорите. Это означает, что фирмам, правительствам и другим поставщикам услуг придется делать однозначный выбор при кодировании протоколов реагирования для различных ситуаций.

Тем не менее, прежде чем это произойдет, директивным органам необходимо будет установить сферу алгоритмической ответственности, чтобы определить, какие решения, если таковые имеются, должны быть оставлены на усмотрение компаний или отдельных лиц. Те, что находятся в ведении государства, должны быть обсуждены. И учитывая, что на этические и моральные вопросы нет простых ответов, вряд ли можно достичь консенсуса. За исключением окончательного решения, нам нужно будет создать системы, которые, по крайней мере, облегчат связь между AV и рассудят алгоритмические споры и дорожные происшествия.

Учитывая необходимость конкретизации при разработке алгоритмов принятия решений, само собой разумеется, что будет необходим международный орган для установления стандартов, в соответствии с которыми решаются моральные и этические дилеммы. В конце концов AV, являются лишь одним из приложений алгоритмического принятия решений. Заглядывая вперед, стандарты алгоритмической ответственности должны будут управляться во многих областях.

В конечном счете, первый вопрос, который нам надлежит решить, имеют ли фирмы право разрабатывать альтернативные этические рамки для принятия алгоритмических решений. Мы утверждаем, что у них этого права нет.

В эпоху ИИ, некоторые компоненты глобальных производственно-сбытовых цепочек в конечном итоге будут автоматизированы как само собой разумеющееся, и с этого момента они больше не будут рассматриваться в качестве областей, в которых компании могут добиться конкурентного преимущества. Процесс определения и вынесения решения по алгоритмической ответственности должен стать одной из таких областей. Так или иначе, решения будут приняты. Лучше, чтобы по ним было принято единое решение и как можно более демократично.

Марк Эспозито, профессор бизнеса и экономики, имеющий контракт с Hult International Business School и Гарвардским университетом, является соучредителем Nexus FrontierTech и научным сотрудником Школы государственного управления имени Мохаммеда бин Рашида в Дубае и Кембриджской бизнес-школы.

Теренс Це, профессор Европейской бизнес-школы ESCP в Лондоне, является соучредителем Nexus FrontierTech.

Джошуа Энтсмингер, исследователь в Nexus FrontierTech и старший научный сотрудник Ecole des Ponts Center по политике и конкурентоспособности.

Орели Жан, ученый в области вычислительной техники, является основателем In Silico Veritas, консультантом Boston Consulting Group и внештатным сотрудником Министерства образования Франции.

Copyright: Project Syndicate, 2019.
www.project-syndicate.org

Марк Еспозито, Теренс Це, Джошуа Энтсмингер и and Орели Жан
Оставить комментарий

Smart

Страницы:1 2 3 4 5 6 ... 33