Бeз предвзятости. В Нью-Йорке приговоры выносит ИИ

9e614f8e9f29a6a5cfa948822b93f4d4

Экспeримeнт пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe был oстaнoвлeн нa пoлгoдa с-зa пaндeмии кoрoнaвирусa, нo тeпeрь внoвь нaчинaeт рaбoту.

В Нью-Йoркe вoзoбнoвили рaбoту пилoтнoгo прoeктa пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe — aлгoритм рeкoмeндуeт мeру пресечения. Руководство надеются на сокращение нагрузки сверху местные тюрьмы и рассчитывают. что сие позволит избежать предвзятости. сайт.net рассказывает подробности.

 

За исключением. Ant. с расового неравенства

В декабре 2018 возраст Европейская комиссия по эффективности правосудия Совета Европы одобрила Европейскую этическую хартию, содержащую идеология использования искусственного интеллекта в судебной и правоохранительной системах.

Сие первый международный акт, и неизведанную сферу. В хартии говорится о необходимости пользовательского контроля: эфет вправе не согласиться с решением, предложенным ИИ, а всякий участник спора имеет право опровергнуть такое решение и потребовать суда минус применения искусственного интеллекта.

В Нью-Йорке такая дефинитив призвана освободить тюрьмы, которые, по образу считают власти, переполнены из-из-за излишнего консерватизма американских судей.

Попытка по использованию ИИ в судебной системе был остановлен держи полгода из-за пандемии коронавируса, так теперь вновь начинает работу.

Microsoft заменит редакторов алгоритмами

Газетенка Wall Street Journal пишет, что такое? алгоритмы, которые были разработаны сверху основе широкой базы данных до уже завершенным делам, могут подарить судьям две рекомендации: отпустить подо залог или заключить под стражу поперед суда.

База данных состоит с   1,6 миллиона уголовных дел, закрытых в 2009-2015 годах. В ней содержится никак не только стандартная личная информация, однако и такие детали, как добровольно ли подозреваемый сообщал кровный домашний телефон и адрес полицейским близ задержании.

Эта информация оказалась одной с определяющих для алгоритма, поскольку, равно как выяснили исследователи, те, кто делал сие добровольно, чаще приходили на судебное пленум сами, поэтому могут быть отпущены почти залог.

Над проектом работали двум независимые друг от друга компании. Истечении (года) того, как они создали малую толику десятков моделей поведения, разработчики объединили силы, с целью оставить преимущественно только совпавшие модели.

В итоге была разработана построение, отчасти похожая на рейтинг оценки кредитоспособности физических лиц, сделано давно используемый в США.

Если диспетчер, которая создавалась в 2013 году, отпускала почти залог не более 40 процентов подозреваемых, ведь новый алгоритм — 86,7 процента чернокожих, 89,7 процента белых и 90,7 процента латиноамериканцев.  

Подобная метода, применяемая в штате Нью-Джерси в 2014 году, показала свою отдача, сократив аресты почти вполовину. Да и то та система не могла отмахать расовое неравенство: под стражу взят сколько) (на брата третий белый и каждый второй угольный.

В этой связи год назад сбочку 30 ученых и исследователей из ведущих американских университетов написали открытое извещение, в котором выразили «серьезные опасения».

«Целые десятилетия исследований показали, что-то за одни и те же преступления афроамериканцев тож латиноамериканцев арестовывали, осуждали или давали паче строгие приговоры чаще, чем белых», — говорится в письме.

Таким образом, алгоритмы, основанные для анализе таких приговоров, изначально являются предвзятыми.

ИИ сделал первый за полвека антибиотик

 

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.