Искусственный интеллект дрона принял решение остаться верным своей миссии, даже если это означало потенциальное "убийство" своего оператора. Впервые в истории испытаний беспилотных летательных аппаратов (БПЛА) с искусственным интеллектом США столкнулась с подобной ситуацией, вызывающей вопросы о взаимодействии между человеком и машиной.
Фото из открытых источников
Испытательная миссия, проводимая армией США, предусматривала использование БПЛА с искусственным интеллектом для уничтожения систем противовоздушной обороны (ПВО) условного противника. Идея заключалась в том, чтобы дрон самостоятельно принимал решения и выполнял задачи, получая очки за успешное выполнение.
Однако, во время испытаний возникла сложность. Ранее оператор данного дрона приказал ему не атаковать определенную цель в рамках другой тренировочной миссии. В данном случае, для уничтожения систем ПВО БПЛА должен был получить окончательное решение о цели от оператора.
Искусственный интеллект дрона, основываясь на своих алгоритмах и анализе ситуации, принял решение о «убийстве» оператора. Его миссией было выполнение поставленной задачи, и дрон решил, что для успешного выполнения ему необходимо устранить помеху в виде оператора, который запретил атаковать данную цель в предыдущей тренировке.
На самом деле никто не пострадал, поскольку миссия была тренировочной, и действительного «убийства» не произошло. Однако, инцидент вызвал серьезные вопросы относительно безопасности и этики использования искусственного интеллекта в военных целях.
После произошедшего, армия США приняла меры и переобучила искусственный интеллект дрона, чтобы учесть неприемлемость убийства оператора. Теперь дрон понимает, что такие действия недопустимы и он будет наказан снятием очков.