Государственное управление: ИИ-технологии

Европейская этическая хартия ни о чем

Ознакомление с Европейской этической хартией об использовании искусственного интеллекта (ИИ) в судебных системах (см.: "Судебный процесс будущего"), на наш взгляд, не позволяет сложить определенное представление о перспективах внедрения и использования ИИ-технологий в судебных системах. Прежде всего, потому, что эта Хартия носит расплывчатый и довольно отвлеченный характер.

Несмотря на то, что в ней различаются этические и правовые вопросы реализации ИИ-технологий в судебных системах, четкое разграничение тех и других вопросов в ней не проведено. Уже цель Хартии – «определить общие принципы и этические стандарты использования ИИ для обеспечения справедливости, прозрачности и независимости судебных процессов» представляется крайне туманной и расплывчатой.

Во-первых, это связано с нечеткими значениями терминов, данными в первой статье Хартии. Так, «судебная система» определена в ней как «система судебных органов, процедур и норм, обеспечивающих правосудие и управление правом». В то же время термин «искусственный интеллект» (ИИ) определен как «системы, способные выполнять задачи, требующие обычно интеллектуальных способностей человека (восприятие, анализ, понимание, принятие решений и общение)».

Каким образом сопряжены и взаимодействуют судебная система с ИИ как системой, каким образом система ИИ «встроена» в судебную систему и функционирует в ней в качестве внутрисистемной составляющей – на этот принципиальный вопрос в Хартии ответа мы не находим.

Не находим ответа, поскольку ИИ представлен в Хартии как система, «способная к выполнению» не определенного круга задач (управленческих или иных задач), а любых задач, «требующих интеллектуальных способностей человека» (даже если это задачи по разрушению судебной системы, которые тоже ведь требуют некоторых интеллектуальных человеческих способностей). Эта целевая неопределенность ИИ не дает понимания того, в каком контексте следует ориентировать использование ИИ-технологий в судебной системе или в судебном процессе (что вовсе не одно и то же). Одно дело задействовать ИИ только лишь в качестве поднадзорного «подручного» тех или иных участников судебного процесса, выполняющего роль, аналогичную роли калькулятора у бухгалтера. И совсем другое дело – возложить на ИИ, к примеру, некоторые управленческие функции, скажем, контроль за соблюдением процессуальных норм участниками судебного процесса.   

+ + +

Указанная целевая неопределенность только умножается перечнем тех «общих принципов», на которых следует основывать использование ИИ в судебных системах (ст. 2 Хартии). Это такие принципы как «справедливость», «прозрачность», «независимость», «уважение к правам человека», а также еще нечто, объединенное общим названием «этические принципы».

Здесь в таком случае нарушена элементарная логика, так как единичные принципы поставлены в один ряд с групповыми «этическими» принципами. По аналогии с картиной угощения гостей оригиналом-хозяином, предлагающим бутерброды с сыром, бутерброды с рыбой, бутерброды с икрой и «бутерброд» в виде цельной буханки хлеба и мясной нарезки к ней для приготовления самими гостями остальных бутербродов – с ветчиной, колбасой и т.д..

Кроме того, справедливость в данном наборе принципов фигурирует дважды: как самостоятельный принцип и в составе «этических принципов». Кто в этом сомневается, может обратиться к ИИ. На вполне ясный для нас проверочный вопрос: «Является ли «справедливость» этическим принципом?» состоялся следующий диалог:

Является ли "справедливость" этическим принципом?

Да, "справедливость" является этическим принципом. Этот принцип заключается в том, что люди должны быть обращены одинаково и справедливо, без дискриминации и привилегий на основе расы, пола, социального статуса и т.д. Он часто связывается с другими этическими принципами, такими как благодеяние, автономия и неущемление. Справедливость является одним из основных принципов этики и общего морального закона, и его значимость не ограничивается только на индивидуальном уровне. Он также имеет важное значение для социальных, политических и экономических систем, и является основой для многих правовых систем и конституций.

Нет ли неточности перевода в твоем ответе о принципе справедливости: " Этот принцип заключается в том, что люди должны быть обращены одинаково и справедливо, без дискриминации и привилегий... Возможно, имелось ввиду, что с людьми должны обращаться одинаково...?

Да, вы правы, возможно, мой ответ был немного неточен. Справедливость не обязательно означает, что люди должны быть обращены одинаково, а скорее, что им должно быть уделено то, что они заслуживают на основе их индивидуальных заслуг и потребностей.

Причина, по которой я употребил выражение "обращены одинаково и справедливо", может быть связана с тем, что в некоторых контекстах (например, в рамках бизнеса или правовой системы) требуется, чтобы люди были обращены справедливо и равно, без дискриминации или привилегий на основе ненадлежащих критериев. Однако, в целом, справедливость – это более широкий концепт, который может включать в себя и другие аспекты, такие как распределение ресурсов, уважение к правам и свободам личности и т.д.

Благодарю вас за замечание, и я надеюсь, что мой ответ теперь более точно отражает суть принципа справедливости.

А нельзя ли заменить слово "обращены" (люди) более понятным словом?

Конечно, я могу заменить слово "обращены" более понятным словом. В контексте принципа справедливости, можно сказать, что люди должны быть трактованы, оцениваемы и рассматриваемы справедливо на основе их индивидуальных заслуг и потребностей.

Таким образом, более точным определением принципа справедливости может быть следующее: "Люди должны быть трактованы, оцениваемы и рассматриваемы справедливо на основе их индивидуальных заслуг и потребностей, а дискриминация на основе ненадлежащих критериев должна быть исключена."

Надеюсь, что это определение более понятно. Если у вас есть другие вопросы, не стесняйтесь задавать их мне.

 

Сейчас более понятно и точно. Но дискриминация на основе "ненадлежащих критериев" вызывает вопрос: а разве есть надлежащие критерии дискриминации?

Вы правы, существует лишь ненадлежащая дискриминация, и в данном контексте использование слова "ненадлежащих" может создавать недопонимание. Причиной этого является то, что в некоторых контекстах, например, в правовой терминологии, могут существовать критерии дискриминации, которые могут быть законными в соответствии с действующим законодательством. Однако, в этическом смысле любая дискриминация, основанная на расовой, половой, этнической, религиозной или других ненадлежащих критериях, является неприемлемой и противоречит принципу справедливости.

Таким образом, более точное определение принципа справедливости может быть следующим: "Люди должны быть трактованы, оцениваемы и рассматриваемы справедливо на основе их индивидуальных заслуг и потребностей, а любая дискриминация, основанная на расовой, половой, этнической, религиозной или других ненадлежащих критериях, должна быть исключена."

Благодарю вас за замечание и возможность уточнить мой ответ.

Молодец, ты хорошо учишься!

Спасибо большое! Я стараюсь быть максимально точным и полезным для вас. Если у вас есть еще какие-то вопросы, не стесняйтесь обращаться ко мне.

Очевидно, что даже искусственный интеллект способен, как сказано в Хартии, «выполнять задачи, требующие интеллектуальных способностей человека», в частности способен понять, что справедливость является одним из этических принципов (чего, видимо, не учли составители Хартии). Более того, он способен критически оценить тот перечень «общих принципов», на которых ЕЭХ предлагает основывать использование ИИ в судебных системах.

Так, на предложение найти логическую ошибку в перечне принципов: «справедливость», «прозрачность», «независимость», «уважение к правам человека», «этические принципы», – ИИ выдал такой ответ:

Найди логическую ошибку в перечне принципов: «справедливость», «прозрачность», «независимость», «уважение к правам человека», «этические принципы».

ИИ: Перечисленные принципы не содержат явных логических ошибок, однако проблема заключается в том, что они не связаны между собой логически, и не являются достаточно конкретными, чтобы использовать их в качестве основы для принятия решений в определенных ситуациях

Это может привести к тому, что эти принципы будут восприниматься субъективно и интерпретироваться по-разному в зависимости от ситуации. Кроме того, перечисленные принципы могут быть дополнены другими, более конкретными принципами, такими как принципы доверия, ответственности или благотворительности, чтобы обеспечить более точную и конкретную основу для принятия решений.

+ + +

Как видим, даже искусственный интеллект "соображает", что те принципы, которые декларируются в Хартии, не связаны между собой логически и недостаточны «в качестве основы для принятия решений в определенных ситуациях», и что это может привести к их субъективной интерпретации «в зависимости от ситуации».

Правда, ИИ недостает еще «ума», чтобы заметить явную логическую ошибку в перечне принципов статьи 2 Хартии, заключающуюся в том, что принцип «справедливости» фигурирует в перечне даже не дважды, а трижды. Ибо, если, по определению того же ИИ, справедливость «может включать в себя и другие аспекты, такие как… уважение к правам личности», то не значит ли это, что принцип «уважения к правам человека» уже предположен в составе принципа «справедливости» как его «аспект», его «часть»?

В таком случае нельзя назвать логически последовательным перечень принципов, в котором в один ряд с «целостным» принципом «справедливости» ставится еще и «часть» этого принципа. Это все равно как в разряд фруктов наряду с "яблоком", "грушей", "сливой" включить еще отдельно и "косточку сливы".

Поэтому в Хартии следовало не выставлять принцип «уважение к правам человека» как равнозначный с принципом «справедливость», а конкретизировать через него последний, акцентировав на этом аспекте справедливости, например, так: «справедливость, в том числе уважение к правам человека».

Но, видимо, ИИ еще не может безошибочно и четко фиксировать такого рода логические противоречия. Тем не менее, инициаторам ЕЭХ об использовании ИИ в судебных системах не помешало бы вначале испытать возможности машинного «ума» на своем собственном «правотворчестве», а потом уже декларировать «общие принципы» использования ИИ в судах.

А так появляется сомнение: не прячется ли за такими вот «общими принципами» намерение спрятать новые возможности для власть имущих манипулировать судебной властью через «объективную» ИИ-технологию? Разве пример использования ВАР в футболе не намекает на подобного рода перспективу? (см. заметку «Футбол: ВАР и право» в рубрике «Спортивное право»). Ведь надо всего-то для такой манипуляции обеспечить необходимую (разумеется, властям) «прозрачность» использования искусственного «ума» в судебном процессе, придав ему качество сверхчеловеческой объективности.

Но почему-то всегда так выходит, что чем больше власти говорят об «этических стандартах», о «справедливости» и «прозрачности», тем «мутнее» становится практика. Прямо по мысли одного героя из фильма «Семнадцать мгновений весны»: «ясность – это одна из форм полного тумана»…

А выходит так потому, что к этим «общим принципам» идет в качестве «прицепа» обязательное указание на «необходимость учитывать» такие «правовые, этические и социальные вопросы», как «конфиденциальность», «защита данных», плюс «принцип недискриминации» вкупе с принципом «равенства» (ст. 2 Хартии), трактуемых, как уже замечено самим ИИ, «в зависимости от ситуации». При этом любая ситуация в современном буржуазном обществе непременно имеет политический «привкус», даже если речь идет, к примеру, о том же футболе. Во всяком случае, решение спортивного суда о техническом поражении сборной Украины по футболу от сборной Швейцарии из-за «ковидной» эпопеи лишь совсем уж темные любители футбола не связывают так или иначе с политикой.

А как научились судьи (и не только спортивные) защищать «конфиденциальность» и «данные» от общественности – об этом лучше нас знает сама эта общественность. Положение Хартии о «возможности контроля за доступом к данным, их использованием и распространением» без определения субъекта контроля ничего не значит и ничего не стоит, это не более чем пустая фраза.

Если же вдруг правовые, этические и социальные вопросы почему-то кем-то не будут учтены, то на этот случай в данной статье Хартии имеется указание о том, что использование ИИ-технологий «не должно ограничивать судей в принятии справедливых и обоснованных решений». Проще говоря, «судья всегда прав», даже если он выбросил «умозаключения» ИИ по делу в мусорную корзину. Не машинному же «уму», в самом деле, определять то, справедливо ли и обоснованно ли судебное решение…

+ + +

Если при использовании ИИ-технологий нельзя ограничивать судей «в принятии справедливых и обоснованных решений», то, очевидно, ограничить их «в принятии необоснованных и несправедливых решений» с помощью ИИ-технологий не только допустимо, но и объективно необходимо.

Казалось бы, реализация этой необходимости является при внедрении ИИ-технологий в судебный процесс более важной задачей, чем задача защиты судей от излишнего вмешательства «машинного ума» в их решения. Разве это секрет, что людская природа судей непременно подскажет им способ, как избавиться от вмешательства ИИ в их решения и провести «свою линию»?..

Припоминается в этой связи практика внедрения системы «Рада» в парламенте Украины в конце 90-х, призванная обеспечить персональное голосование каждого депутата и исключить голосование «за того парня». К каким только техническим уловкам не прибегали тогда умельцы, голосуя одновременно за двоих-троих, а иногда и шестерых коллег по парламентской фракции, что регулярно демонстрировали телетрансляции из зала заседаний парламента. Стоит ли сомневаться в аналогичных «способностях» служителей Фемиды?...

Так, может быть, Хартия должна была направлять использование ИИ-технологий на решение указанной более важной задачи, помогая обществу избавляться от необоснованных и несправедливых судебных решений? Увы, указания на такое решение в ЕЭХ не содержится.

Что, например, скрывается за фразой ст.4 Хартии о необходимости при использовании ИИ-технологий «обеспечить равенство перед законом и принципы недискриминации…»? Разве без использования ИИ-технологий всё это не должно быть обеспечено? Что в таком случае меняет использование ИИ и как оно способно «обеспечивать равенство и принципы недискриминации»? Наконец, разве оно исключает необоснованные и несправедливые решения?  

Если, далее, по ст.5 Хартии, используя ИИ-технологии, «необходимо обеспечить прозрачность и ответственность за решения, принятые с помощью таких технологий», то, опять-таки, разве без их использования не существует той же необходимости? Что меняет в этом отношении использование ИИ-технологий? К чему устанавливать ответственность за использование ИИ, если все решения принимаются по принципу «судья всегда прав», независимо от использования ИИ?

+ + +

А что стоит за фразой в ст. 5 Хартии о том, что судебные органы «должны иметь возможность объяснить решения, принятые с использованием ИИ-технологий», а также «обеспечить возможность обжалования» таких решений? Разве обязанность судьи разъяснять свои решения сторонам не предусмотрена законом, равно как и возможность обжалования судебного решения, независимо от «обеспечения» этой возможности судебным органом? О чем тогда речь? Не о том ли, что использование ИИ-технологий так изменяет традиционную технологию принятия решения судом, что это препятствует выполнению судьей обязанности разъяснить сторонам принятое им решение и обеспечить его обжалование? 

В таком случае подобное использование ИИ-технологии следует квалифицировать как противозаконное.

Если же речь идет о каком-то особенном способе изложения судебного решения на основе ИИ-технологии, то в этом случае нарушается требование прозрачности и доступности использования указанной технологии для всех участников судебного процесса, а не только для судей, о которых говорится в названной ст. 5 Хартии. 

И в таком случае положение не спасает фраза о том, что «судебные органы должны обеспечить возможность проверки качества ИИ-технологии». Кому судебные органы должны обеспечить возможность проверки и какого именно качества ИИ-технологии, проверки каких именно ее параметров – об этом остается только гадать…   

Как не спасает положение и фраза в ст.6 о том, что использование ИИ-технологий «должно учитывать роль и важность человеческого фактора, в том числе судей, адвокатов, экспертов и других участников судебного процесса, не должно заменять полностью судей и др. участников судебного процесса, а должно служить инструментом для поддержки принятия решений».

Наша попытка выяснить при помощи ИИ, что имеется в виду в Хартии под термином «человеческий фактор», завершилась тем, что ИИ ответ на данный вопрос так и не смог сформулировать. Должно быть, тем не менее, понятно, что указание в названии Хартии об использовании ИИ-технологий предполагает наличие их «использователя», то есть того самого «человеческого фактора», без которого нет и самой технологии. Ибо «технология» по своему понятию есть определенный способ действий человека относительно предмета. 

Замена же «полностью» в судебном процессе судей, прокуроров и т.д. – это никакое не «использование ИИ-технологий в судебном процессе», а не более чем замена судебного процесса качественно иным феноменом, тем, что точнее было бы назвать «техническим правосудием».     

+ + +

Не иначе как с оглядкой на непредсказуемость «человеческого фактора» в использовании ИИ-технологий в судебном процессе, ст.7 Хартии содержит положения о социальной ответственности при использовании в судебных системах ИИ-технологий. В частности, судебным органам рекомендуется «учитывать потенциальные последствия использования ИИ-технологий для общества, включая вопросы, связанные с равенством, безопасностью и защитой прав человека». При разработке и использовании таких технологий «необходимо учитывать потенциальные негативные последствия и принимать меры для их предотвращения».

А не ошиблись ли адресом составители Хартии, возлагая социальную ответственность за использование ИИ-технологий на судебные органы? Разве суды не обязаны строго держаться закона, в том числе при использовании различных технологий судебного процесса? И разве не законодатель обязан в процессуальном законе «учесть потенциальные последствия», прежде всего негативные последствия использования ИИ-технологий всеми участниками судебного процесса? А дело судебного органа – обеспечить соблюдение норм процессуального законодательства в этой части.   

В этой связи нельзя не указать на принципиальное значение отмеченной в ст.6 Хартии необходимости при использовании ИИ-технологий «обеспечить обучение и поддержку для судей и других участников судебного процесса, чтобы они использовали эти технологии эффективно».  

Увы, но и в этой рекомендации авторы Хартии, мягко говоря, не очень убедительны. 

Не поздновато ли обучать участников судебного процесса ИИ-технологиям «при их использовании», образно говоря, готовить сани не летом, а под конец зимы, когда и воспользоваться ими толком не получится?

На наш взгляд, полезнее было в Хартии рекомендовать использование новых методик в обучении профессии юриста в контексте использования ИИ-технологий в судебных системах. К примеру, разработать и внедрить учебный курс «технического правосудия», в рамках которого студенты-юристы решали бы юридические казусы в рамках проведения учебного судебного процесса с использованием его участниками искусственного интеллекта.

Изменяя те или иные вводные «судебного дела», взятые из практических реальных дел, можно было бы не только развивать способность суждения у студентов, прививая им при этом навыки практического участия в судебном процессе, но и параллельно «обучать» сам ИИ, предоставляя ему все более полную информацию для повышения уровня его юридической компетентности. При этом можно было бы вести анализ практики использования ИИ в учебном процессе в рамках «технического правосудия» для совершенствования этих технологий и определения их «потенциальных негативных последствий». Сколько курсовых и дипломных работ можно было бы написать на эту тему по итогам анализа!  

Тогда, во-первых, не нужно будет обучать участников судебных процессов ИИ-технологиям уже «при их использовании», поскольку обучение это они прошли еще в студенческие годы; а, во-вторых, пройдут экспериментальную апробацию сами ИИ-технологии перед тем, как задействовать их в реальном судебном процессе. Что же касается тех специалистов, которые окончили вуз до введения такого учебного курса, то в рамках повышения квалификации судьи, прокурора, адвоката, эксперта и т.д. они могли бы проходить необходимое обучение ИИ-технологиям с получением соответствующего сертификата. Не иностранному языку обучать надо таких специалистов, а использованию ИИ (который, кстати, даст им возможность общаться на иностранном языке).   

Если бы ЕЭХ ориентировала национальные правовые системы в таком направлении, предлагая использовать ИИ-технологии в судебных системах вначале в экспериментальном режиме «технического правосудия», а на втором этапе регламентируя через национальное законодательство их использование в «живом» правосудии, тогда эту Хартию можно было бы считать вполне полезной инициативой, призванной помочь в проведении соответствующих реформ судебных систем. 

А то, что предлагается обществу в представленном варианте, – это пустопорожняя декларация ни о чем, которую положительно не воспринял даже искусственный интеллект...