Как можно привлечь к ответственности робота? Кто виноват в том, что он совершает военные преступления? Кого предадут суду? Оружие? Солдат? Командование? Корпорацию, создавшую оружие?
Об автономных роботах на службе у армий разных стран в своей колонке для theconversation.com рассуждает Джеймс Доус, профессор Колледжа Макалестера
Даже самый умный и идеальный, по сегодняшним меркам, искусственный интеллект может совершать грубейшие ошибки. Например, нейронная сеть, разработанная для использования в больницах Питтсбурга, определила астму как средство снижения риска в случаях пневмонии; программное обеспечение Google для распознавания изображений идентифицировало афроамериканцев как горилл; инструмент машинного обучения для ранжирования кандидатов на работу, разработанный Amazon, систематически присваивает отрицательные оценки женщинам.
Не слишком «умное» автономное оружие
Первой проблемой автор считает ошибочность идентификации. «При выборе цели сможет ли автономное оружие (АО) различать солдат вражеской армии и 12-летних детей, играющих с игрушечными пистолетами? Или мирных жителей, бегущих с места конфликта, от повстанцев, отступающих тактически?», — пишет он.
Доус отмечает, что люди тоже ошибаются, однако опасность ошибок, допущенных ИИ, в том, что негативные последствия могут быть куда более масштабными. Представьте, если целый рой дронов-убийц неправильно распознает цели — жертвами могут стать тысячи и даже десятки тысяч невинных людей. В качестве пояснения профессор приводит такой пример: представьте, что пулемет неисправен и продолжает стрелять даже тогда, когда человек не жмет на курок. Пулемет, конечно, не понимает, что совершает ошибку, но это понимает солдат, и он может направить оружие в безопасном направлении. Автономное оружие по определению не имеет такой защиты.
Проблема не только в масштабности ошибок, допускаемых ИИ, но и в том, что создатели ботов часто не знают, почему ошибки имели место быть, следовательно, они не знают, как их исправить.
Роботы-убийцы могут стать доступны
Еще одной проблемой автономного оружия Джеймс Доус называет доступность технологии. Если роботы-убийцы будут стоить относительно дешево и при этом будут эффективными, то мгновенно появится спрос и, конечно же, предложение.
«Торговлю таким оружием практически невозможно сдержать, оно распространится по всему миру и сможет попасть в руки террористов. Однако распространение «элитного» оружия — еще хуже. Страны могут начать соревноваться в разработке все более разрушительных версий».
Автор считает, что появление высококачественного АО приведет к учащению войн, «поскольку оно ослабит две основные силы, которые исторически предотвращали и сокращали войны: забота о гражданском населении за границей и забота о собственных солдатах… оно также снизит как потребность в собственных солдатах, так и риск для них, резко изменив анализ затрат и выгод, которому страны подвергаются при развязывании и ведении войн. Асимметричные войны, то есть войны, ведущиеся на земле стран, не имеющих конкурирующих технологий, станут более распространенными».
Доус пишет и о такой проблеме, как нарушение международных законов, восходящих к Женевской конвенции 1864 года, и проводящих линию между ведением войны «с честью» и банальной резней. Законы эти основаны на идее, что люди могут быть привлечены к ответственности за свои действия даже во время войны, что право убивать других солдат во время боя не дает права убивать мирных жителей.