Исследование в области теории игр пытается построить систему общих принципов доверия между людьми и роботами.

Робот доверяет Вам, или нет?

Продвинутые роботы постепенно становятся частью нашего общества, и люди должны знать, можно ли им доверять.

В то же время нужно научить роботов доверять нам, простым смертным, в решении вопросов, с которыми они самостоятельно не смогут справиться. Ученые из Университета штата Пенсильвания, Массачусетского технологического института (MIT) и Технологического института Джорджии попытались совместно создать определение и модель доверия, которую можно максимально просто перенести в программный код. Все-таки у роботов нет интуиции, которая подсказывает нам.

Вот то самое немного рекурсивное определение, к которому они пришли: 

Вера доверяющего, что тот, кому он доверяет, будет вести себя тем образом, который минимизирует риск доверяющего в ситуации, в которой доверяющий рискует результатом.

В оригинале: a belief, held by the trustor, that the trustee will act in a manner that mitigates the trustor’s risk in a situation in which the trustor has put its outcomes at risk.

Чтобы прийти к такому определению, ученым пришлось определить, насколько мы с вами вообще готовы доверять роботам, а они нам. На протяжении четырех лет исследователи наблюдали, как более чем 2 000 добровольцев проигрывали сценарии, в которых тестировалось их мнение о робототехнике.

В некоторых ситуациях участники должны были выбрать, последуют ли они за роботом к выходу из горящего здания, при этом в некоторых ситуациях прям перед тем, как сделать выбор, они наблюдали глюк в системе навигации робота.

В других ситуациях, участников просили решить, согласятся ли они открыть дверь роботу, который просит о помощи, в условиях запрета на вход и выход.

В некоторых экспериментах проверяли, насколько сами роботы готовы доверять людям. В переделанной версии классического эксперимента из теории игр, гуманоид робот NAO должен был согласиться или отказаться одолжить деньги человеку, в зависимости от того, сколько денег человек вернул в предыдущих итерациях. Со временем роботы вырабатывали схему для каждого человека. К примеру, если человек возвращал больше денег, то робот интерпретировал это как выражение доверия человека роботу.

К сожалению, пока что в плане доверия мы с роботами находимся в односторонних отношениях.

Но есть и хорошие предпосылки. Многие участники помогали роботу — если тот просил вежливо, — даже с риском для самих себя. Некоторые следовали за роботом по опасному пути из горящего здания, даже увидев, что у него немного сбоит программа.

В то же время, людям пришлось активно зарабатывать доверие у более объективных бездушных роботов-кредиторов.

Так что видимо нам придется в будущем сильно стараться, прежде чем роботы начнут нам доверять.

 — 

Исследование было опубликовано в прошлом месяце в журнале ACM Transactions on Interactive Intelligent Systems.