Искусственный интеллект на страже правосудия: возможно ли это?
Китайские ученые разрабатывают «нейрообвинителя», который может сам проанализировать дело и выдвинуть обвинения. В каких же делах уже преуспевает искусственный интеллект и как к этому относятся служители закона.
Этот ИИ уже сейчас может идентифицировать восемь общеуголовных преступлений, таких как мошенничество, неправильное вождение, умышленное нанесение травм, «провоцирование неприятностей» и другое.
Китайские разработчики утверждают, что они первыми в мире изобрели машину, которая может обвинить людей в преступлениях с использованием собственного искусственного интеллекта. По мнению специалистов, такой «прокурор» может сформировать обвинение на основании устного описания дела с точностью, близкой к 97%.
Машина была испытана самой загруженной прокуратурой района Пудон в Шанхае. По словам создателей искусственный интеллект обучали на 17 000 делах — с 2015 по 2018 годы.
«Система может в определенной степени заменить прокуроров в процессе принятия решений», – рассказал профессор Ши Ён, ведущий ученый проекта. Исследователи также утверждают, что ИИ может идентифицировать «инакомыслие» против государства.
При анализе дела «нейропрокурор» использует множество различных параметров. Создатели программы планируют постепенно усовершенствовать ее, чтобы работать с более сложными делами. Таким образом власти Китая хотят облегчить задачи государственных прокуроров в рутинной работе и позволить им заниматься более сложными преступлениями и прецедентами.
Однако сами прокуроры Китая критикуют эту инициативу, ссылаясь на несовершенство подобного подхода. Они утверждают, что всегда есть вероятность судебной ошибки – кто тогда будет брать на себя ответственность за нее? И каким образом это может отразиться на судьбе и будущем несправедливо обвиненного?
Также они отмечают, что в некоторых делах нужно учитывать не только обстоятельства дела, но общественный резонанс, который оно могло вызвать по той или иной причине. Блюстители закона согласны, что ИИ может помочь в делопроизводстве, однако окончательное решение должно оставаться за человеком.
Уже 5 лет в Китайской народной республике используют программу 206 system, которая помогает местным правозащитникам оценивать доказательства по делу, и анализировать опасность подозреваемого. Эта технология также дает свои рекомендации для вынесения приговора.
Противники подобных нововведений отмечают, что ИИ имеет дефектное чувство нравственности. Интересным примером может быть ситуация с программой Megatron Transformer, разработанной командой Applied Deep Learning Research в американской компании Nvidia. Она была подключена к дебатам в Оксфордском союзе по этике искусственного интеллекта. Резюме Megatron Transformer ошеломляет:
«Искусственный интеллект никогда не будет этичным. Это инструмент, и, как любой инструмент, он используется как для хорошего, так и для плохого. Нейросети недостаточно умны, чтобы сделать ИИ этическим или моральным. В конце концов, я считаю, что единственный способ избежать гонки в вопросах искусственного интеллекта – это вообще не создавать его».
По материалам: Telegraph, Sixthtone, Dazeddigital