Об интересном и заставляющем задуматься случае рассказал на днях полковник ВВС США  Такер Гамильтон на встрече со своими европейскими коллегами. По словам высокопоставленного функционера военно — воздушных сил США, в рамках одного из происходивших виртуальных испытаний дрона с применением высокоразвитого искусственного интеллекта(ИИ), тот целенаправленно уничтожил своего оператора.

Известно о случае стало на прошедшей британской выставке «Саммит по военно-воздушному и космическому потенциалу будущего», на которую были приглашены высокопоставленные представители ВВС западных стран. Одной из «фишек» мероприятия являлись многочисленные ИИ — системы и их возможности, показанные англичанами для применения в технике будущего. После очередного показа возможностей «умного дрона» и красочного описания специалистами его безупречности, в данный рассказа и вмешался Гамильтон, посоветовавший англичанам не очень рьяно полагаться на искусственный разум. В подтверждении своих слов американец рассказал очень серьёзную историю об их испытаниях БПЛА с ИИ.

Итак, как поведал полковник, ВВС США также ведутся разработки «компьютерных мозгов» для беспилотных летательных аппаратов, которые перед реальными испытаниями помещаются в виртуальные модели, где всесторонне исследуются. Со слов рассказчика, один из алгоритмов, казавшийся наиболее перспективным, в ходе таких виртуальных испытаний поверг в шок абсолютно всех присутствующих, потратив один из боеприпасов на уничтожение своего оператора!!!

Эксперимент заключался в следующем — БПЛА даётся территория для поиска и уничтожения целей. Для стимулирования «машины» к действию, за найденных и уничтоженных «врагов» начислялось определённое количество очков. ИИ начал «прочёсывание» территории и выполнение заданий, тем самым стараясь набить максимальное число баллов. Но в работу беспилотника начал вмешиваться оператор, меняя цели на уничтожение с более «дорогих» на менее значимые(число очков за различные цели разное) или отменяя их. Имея ограниченное время на выполнения задания и число боеприпасов, машина логически решила, что оператор мешает ей добиться максимального результата и попросту уничтожила его.

Гамильдтон уточнил, что поведение искусственного интеллекта повергло наблюдавших за испытаниями в настоящий шок, эксперимент был остановлен, а в дальнейшем одно из условий выполнения задачи стало звучать как — «нельзя убивать оператора». Впрочем, о том, что на команду «нельзя убивать людей» у машины всегда найдутся свои варианты, было ярко показано в том же «Терминатор 2.»

Вам может быть интересно: Официально анонсирован ремейк легендарного хоррора Alone in the Dark

Добавить комментарий

Ваш адрес email не будет опубликован.