Достаточно любопытный случай произошёл в правоохранительных органах США. Эксперимент, проводимый с 2018 по 2021 год, связанный с автоматическим предсказанием ИИ возможных преступлений закончился крупным скандалом из-за чего и был отменён. Всё дело в том, что самообучаемая автономная система по имени PredPol со временем в абсолютном большинстве случаев сосредотачивалась на районах, где латинское или чернокожее население является преобладающим. В свою очередь, получая предсказания от ИИ, полицейские управления посылали на указанные территории значительно большее количество патрулей, что вызывало недовольство местных жителей.

Почему так произошло?

Причина проста: самообучаемые алгоритмы анализируя видя статистику существующих преступлений, сосредотачивались на тех районах, где они совершались чаще(и это логично). По факту система не была в чём — то виновата и не знала, где преобладают те или иные группы населения, а работала исключительно полагаясь на сопоставление участков территорий с количеством совершённых на них правонарушений.
Как показала статистика, наименьшей эффективностью предсказаний PredPol отличалась при контроле кварталов с белым обеспеченным населением. На таких территориях преступления случались крайне редко, ситуационно, что не дало ИИ возможности вывести поведенческую линию их появления, в то время как в бедных кварталах, которые в большинстве случаев оказывались населены чернокожим и латинским населением высокая статистика преступности наоборот позволила структурировать случаи правонарушений.

Вам может быть интересно: Кто — то украл со дна моря обломки недавно упавшего F-35

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *