Полицейским в Англии будет помогать искусственный интеллект

Автор фото, Getty Images
Полиция города Дарема на севере Англии запускает компьютерную программу, которая при помощи алгоритма искусственного интеллекта должна помочь полицейским определить, кого следует содержать под стражей, а кого можно отпустить.
Алгоритм классифицирует задержанных по степени риска - с какой вероятностью они могут вновь совершить преступление.
Программа - Harm Assessment Risk Tool (Hart) - "изучала" данные полиции Дарема об арестах за период в пять лет, между 2008 и 2012 годами.
Затем система была протестирована даремской полицией в 2013 году, после чего в течение двух лет изучались результаты этого тестирования - полицейские отслеживали, вернулись ли освобожденные к преступной жизни или нет.
Как выяснилось, алгоритм мог предсказать, что задержанный не представляет опасности в 98% случаев. А находящихся в группе "высокого риска" компьютер правильно выявлял в 88% случаев.
Это отражает настройки алгоритма искусственного интеллекта - он запрограммирован "осторожничать" и классифицировать задержанных людей чаще в группы среднего или высокого риска - чтобы не выпускать на свободу тех, кто может снова совершить преступление.
В ходе испытаний программы полицейские следили за выводами Hart, но вердикт алгоритма не влиял на принятие решения об аресте, говорит Шина Эрвин из даремской полиции.
"Я думаю, что в течение ближайших двух или трех месяцев мы, скорее всего, предоставим эту программу в качестве подспорья полицейским, принимающим решения", - сказала она в интервью Би-би-си.
Шина Эрвин говорит, что подозреваемые, ранее не совершавшие преступлений, с меньшей вероятностью будут записаны алгоритмом искусственного интеллекта в категорию высокого риска. Однако если они арестованы по подозрению в серьезном преступлении, как, например, убийство, то это отразится на оценке программы.
В разработке этой программы принимал участие профессор Лоуренс Шерман из Кембриджского университета.
По его словам, программа может быть хорошим помощником во многих случаях: когда полиции следует решить, держать ли задержанного еще несколько часов; следует ли отпустить его под залог до того, как ему будут предъявлены официальные обвинения, и стоит ли держать его под арестом после предъявления обвинений.
В ходе нового эксперимента полицейские будут использовать систему при рассмотрении лишь ряда дел, выбранных случайным путем.
Вопрос о дискриминации
В 2016 году американский новостной сайт ProPublica опубликовал результаты исследования алгоритма, который использовала полиция для того, чтобы определить шансы рецидивизма среди арестованных.
Исследование показало, что в алгоритм заложена расовая необъективность: программа давала гораздо более негативные прогнозы в отношении чернокожих арестантов по сравнению с белыми задержанными. Компания, создавшая этот алгоритм, отрицает выводы ProPublica.

Автор фото, Getty Images
"В каком-то смысле компьютерные модели наглядно демонстрируют скрытые и подсознательные допущения, к которым прибегают люди", - говорит профессор Пенсильванского университета Кэри Кольянезе, который изучает процессы принятия решений при помощи алгоритмов.
"Довольно сложно определить, насколько именно эти компьютерные модели склонны к дискриминации", - говорит он.
Даремская система учитывает не только информацию о прошлых преступлениях подозреваемого, но также его почтовый индекс и пол.
Рекомендательный характер
В ответ на запрос парламентской комиссии, рассматривавшей возможные проблемы процесса принятия решений на основе выводов алгоритмов, создатели даремской системы заявляют, что они уверены в том, что им удалось ограничить возможность дискриминационного подхода к арестованным.
"Информация о почтовом индексе никак напрямую не отражается на результате - окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов", - говорят они.
Они также подчеркивают, что любой вывод алгоритма носит лишь рекомендательный характер и ни в коем случае не отбирает у полиции прерогативу принимать окончательное решение о судьбе задержанного.
Профессор Шерман также говорит, что этот алгоритм должен сохранять все данные о том, как программа пришла к определенному выводу.

Автор фото, Getty Images
По словам Шины Эрван, возможности этой программы ограничены.
Например, на данный момент система оперирует лишь данными даремской полиции, и у нее нет доступа к общенациональным компьютерным системам британских правоохранительных органов.
Это означает, что если полиция Дарема арестует человека, совершавшего тяжкие преступления в других регионах Британии, алгоритм не сможет точно определить, насколько опасен этот человек.
"Это проблема", - признает Хелен Райан из Винчестерского университета. При этом она добавляет, что "даже без этой системы полиция испытывает затруднения в том, что касается доступа к информации".
Однако, по ее словам, даремский эксперимент чрезвычайно интересен. "Потенциально компьютеры - при наличии достаточного количества информации - могут принимать гораздо более точные решения , чем люди", - считает она.
























