ШІ

Чи може ШІ бути більш ефективним, ніж люди в судовій системі?

Чи може ШІ бути більш ефективним, ніж люди в судовій системі?

ШІ повинен замінити багато людських робіт у майбутньому, але чи повинні серед них бути юристи та судді? Тут ми досліджуємо, де ШІ вже використовується в судових системах у всьому світі, та обговорюємо, чи повинен він відігравати більш широку роль.

Зокрема, чи міг чи повинен бути коли-небудь розроблений ШІ, який міг би виносити судження про живу, дихаючу людину?

ПОВ'ЯЗАНІ: КИТАЙ ОПРЕДЕЛИВ СУДДЮ ІІ, ЩО "ДОПОМОЖЕ" СУДОВОМУ ПРОЦЕСУ

Як зараз ШІ використовується в судових системах?

Вірте чи ні, ШІ та інші форми вдосконалених алгоритмів вже широко використовуються в багатьох судових системах світу. Наприклад, у ряді штатів США, в даний час використовуються прогнозні алгоритми, які допомагають зменшити навантаження на судову систему.

"Під величезним тиском щодо зменшення кількості в'язниць, не ризикуючи зростанням злочинності, зали судів у США звернулися до автоматизованих інструментів, намагаючись якомога ефективніше та безпечніше просунути обвинувачених через правову систему". - Огляд технологій.

Для цього американські поліцейські управління використовують прогнозні алгоритми для розробки стратегій, де найбільш ефективно розгорнути свої сили. Використовуючи аналіз історичної статистики злочинів та таких технологій, як розпізнавання обличчя, сподіваємося, що такий рівень автоматизації допоможе підвищити ефективність їхніх людських ресурсів.

Судова служба США також використовує інші форми алгоритмів, які називаються алгоритмами оцінки ризику, щоб також допомогти у розгляді справ після арешту.

"Інструменти оцінки ризику покликані зробити одне: взяти деталі профілю обвинуваченого та виплюнути оцінку рецидиву - єдину цифру, що оцінює ймовірність того, що він чи вона будуть повторно ображені.

Потім суддя враховує безліч рішень, які можуть визначити, який тип реабілітаційних послуг повинні отримувати конкретні обвинувачені, чи слід їх утримувати у в'язниці перед судом і наскільки суворими повинні бути покарання. Низький бал відкриває шлях до більш доброї долі. Високий бал робить прямо протилежне ". - Огляд технологій.

У Китаї судді, що працюють на основі штучного інтелекту, також стають реальністю. Проголошене "першим у своєму роді у світі", місто Пекін запровадив Інтернет-центр судових спорів, в якому працює суддя ШІ для певних видів судових справ.

Суддя під назвою "Сіньхуа" - штучна жінка з тілом, мімікою, голосом та діями, що базується на існуючому живому і дихаючому людині жіночому судді Пекінської судової служби.

Цей віртуальний суддя в основному використовується для основної роботи, що повторюється, йдеться у заяві Інтернет-суду Бехінга. «Вона» здебільшого стосується прийому судових спорів та онлайн-настанов, а не остаточного рішення.

Сподіваємось, що використання судді, що працює під управлінням штучного інтелекту, та онлайн-суду зроблять доступ до судового процесу більш ефективним та широкомасштабним для громадян Пекіна.

"За словами голови суду Чжан Вень, інтеграція ШІ та хмарних обчислень у систему судових спорів дозволить громадськості краще скористатися перевагами технологічних інновацій у Китаї". - Радіуси Китай.

ШІ також використовується в Китаї для відбору повідомлень у соціальних мережах, коментарів та інших заходів в Інтернеті, щоб допомогти у створенні доказів проти потенційних обвинувачених. ДАІ в Китаї також починає використовувати технологію розпізнавання обличчя для виявлення та засудження правопорушників.

Інші поліцейські сили у всьому світі також використовують подібні технології.

Чи міг штучний інтелект коли-небудь приймати правильні рішення?

Відповідь на це питання не проста. Хоча ШІ може приймати деякі типи юридичних рішень, це не означає, що це обов'язково хороша ідея.

Багато систем штучного інтелекту та прогнозні алгоритми, що використовують машинне навчання, як правило, навчаються з використанням існуючих наборів даних або існуючої історичної інформації.

Хоча це звучить як відносно логічний підхід, він в значній мірі залежить від типу та якості наданих даних.

"Небажана справа, непотрібна". як то кажуть.

Одним із основних видів використання машинного навчання та великих даних є виявлення кореляцій, або очевидних кореляцій, у наборах даних. Це може призвести до помилкових спрацьовувань у випадку даних про злочини, і насправді не буде дуже корисним для виявлення основних причин злочинів.

Як застерігає інша відома приказка, "кореляція - це не причинно-наслідковий зв'язок".

Люди часто винні в цій логічній помилці настільки ж, наскільки потенційно може бути штучна копія. Одним із відомих прикладів є співвідношення між низьким доходом та схильністю людини до злочинності.

Бідність не обов'язково є прямою причиною злочинної поведінки, але вона може бути непрямою причиною, створюючи умови, що роблять злочинність більш імовірною.

Якщо подібні помилки кореляції не обробляються належним чином, рішення чи рішення правоохоронного органу з питань штучного інтелекту може швидко перерости у порочний цикл накладення покарань, які є занадто суворими або занадто м’якими.

Як і в усьому в житті, ситуація насправді є більш тонкою, ніж здається. Люди - теж не ідеальні машини для прийняття рішень.

Якщо дослідження з 2018 року також є правильними, здається, що ШІ може швидше та точніше виявляти потенційні правові проблеми, ніж люди. Це підтверджує аргумент про те, що ШІ слід використовувати у ролях юридичної підтримки або, принаймні, переглядати юридичний прецедент.

Чи можна використовувати ШІ для заміни людських суддів?

Як ми вже бачили, ШІ та вдосконалені алгоритми вже використовуються у всьому світі для певних службових завдань та збору даних. По суті, вони виконують певну “роботу” для людських суддів та адвокатів.

Але чи могли вони коли-небудь використовуватися для повної заміни людей у ​​судовій системі? Які саме були б переваги та недоліки цього?

Багато хто стверджує, що ШІ повинен мати можливість усунути будь-які упередження в остаточному процесі винесення суджень. Їхні остаточні рішення теоретично повинні базуватися виключно на наявних фактах та існуючому юридичному прецеденті.

Звичайно, це вже має бути з людьми-суддями. Але будь-яка людина сприйнятлива до неповноцінних знань, упереджень та несвідомих упереджень, незважаючи на найкращі наміри.

Але, мабуть, більш суттєво, те, що щось є законом, не обов’язково означає, що це просто. "Хороша" та "погана" поведінка не є чорною чи білою, це надзвичайно тонка і повністю людська конструкція.

Такі питання залишаються у сфері філософії, а не інформатики. Хоча, інші, швидше за все, не погоджуються, і це може розглядатися як "хороша" річ.

Судді також мають роль приймати рішення щодо покарання злочинця після засудження. Вони можуть варіюватися від незначних (невеликі штрафи) до змін, що змінюють життя, наприклад, накладення тривалого ув’язнення або навіть смертної кари в районах, де воно застосовується.

Такі рішення, як правило, ґрунтуються на наборі рекомендацій щодо призначення покарання, що враховує такі фактори, як тяжкість злочину, його вплив на жертв, попередні судимості та ймовірність повторного вчинення засудженим. Як ми вже бачили, це одна область, де ШІ та прогнозні алгоритми вже використовуються для допомоги у процесі прийняття рішень.

Звичайно, судді можуть повністю ігнорувати рекомендації ШІ. Але це може бути неможливим, якби люди були повністю відсторонені від цього процесу.

Можливо, тут можна було б розглянути справу для колегій суддів ШІ, що складаються із генеративної змагальної мережі (GAN).

Але це виходить за рамки цієї статті.

Чи судді ШІ будуть неупередженими?

Очевидною перевагою використання ШІ для прийняття рішень є те, що алгоритми насправді не можуть мати упередженості. Це повинно зробити ШІ майже ідеальним для прийняття судових рішень, оскільки процес повинен бути заснований на фактичних даних, а не суб’єктивний - як це може бути у випадку з суддями-людьми.

Звучить ідеально, чи не так? Але "трава не завжди зеленіша з іншого боку".

Алгоритми та ШІ не є досконалими самі по собі в цьому плані. Це в першу чергу тому, що будь-який алгоритм або ШІ повинен спочатку кодуватися людиною.

Це може внести ненавмисне упередження з самого початку.

ШІ можуть навіть вчитися та імітувати упередженість від своїх колег-людей та з конкретних даних, з якими вони навчались. Чи можна це колись пом'якшити?

Інше питання - хто буде контролювати суддів ШІ? Чи можна оскаржити їх рішення пізніше? Чи мають судді-люди перевагу над рішенням ШІ чи навпаки?

Світовий саміт уряду, який відбувся у 2018 році, зробив цікавий і гострий висновок з цього питання, який повторюється дослівно: -

"Поки невідомо, яка з цих технологій може набути широкого поширення та як різні уряди та судові органи вирішать контролювати їх використання.

День, коли технології стануть суддею доброї та поганої поведінки людей і призначити відповідні покарання, все ще лежить у майбутньому.

Однак юридичні системи часто дають ідеальні приклади послуг, які можна вдосконалити, тоді як судові розгляди, ймовірно, отримають користь від кращого аналізу даних. Закон часто вимагає судового розгляду, щоб створити прецедент - тому слідкуйте за тестовою справою ШІ як судді ".

На закінчення, чи міг ШІ коли-небудь замінити спеціалістів-юристів чи бути ефективнішими у прийнятті юридичних рішень? Здається, відповідь - і так, і ні.

Так, щодо виконання допоміжних чи консультативних ролей, таких як збір доказів або оцінка ймовірності повторного правопорушення. Ні, що стосується винесення остаточних рішень та винесення вироків.

Ймовірно, розумно давати людям, а не коду, останнє слово, коли мова йде про винесення вироку. Зрештою, закон та правові системи можуть бути законно позначені як людська конструкція.

Існуючі правові системи часом прекрасно сфальсифіковані та приводяться до розуму нелогічно, і їх адаптували та вдосконалювали в міру того, як з часом еволюціонували чуття та чуттєвість - і це дуже підходить людям. Більшість правових систем не закарбовані на весь час; вони еволюціонують так, як це робить суспільство.

Неймовірно, що машину можна було колись навчити розуміти, співпереживати чи виносити рішення "в дусі закону".

Можливо, люди, з усіма нашими недосконалостями та логічними невідповідностями, є єдиними можливими арбітрами справедливості один одного. З цієї причини можна стверджувати, що "справедливість" ніколи не повинна передаватися машинам, оскільки їхня "холодна логіка" може розглядатися як суперечлива "стану людини".

Але ми дозволимо вам вирішити власну думку.


Перегляньте відео: Тривалість імунітету до ковіду та наслідки мутації вірусу. Клятий раціоналіст (Грудень 2021).