Съдиите в Обединеното кралство могат да използват изкуствен интелект. Какво означава това?

Съдиите в Обединеното кралство могат да използват изкуствен интелект. Какво означава това?

Членове на съдебната власт в Камарата на лордовете в очакване на речта на кралица Елизабет. 8 май 2013 г.
UK Parliament/Flickr
Членове на съдебната власт в Камарата на лордовете в очакване на речта на кралица Елизабет. 8 май 2013 г.
В края на 2023 г. съдиите в Англия и Уелс получиха официално, макар и сдържано одобрение да използват изкуствен интелект за помощ при писането на правни становища.
Хилядолетната правна система на Англия, която все още се придържа към някои от причудливите си традиции, които включват носенето на перуки и роби, направи предпазлива стъпка към бъдещето, позволявайки на съдиите да използват изкуствен интелект при изготвянето на решения.
Миналия месец съдебната система на съдилищата и трибуналите каза, че изкуственият интелект може да е от помощ при писането на становища, но подчерта, че използването му за изследвания или правни анализи не е удачно, тъй като технологията може да изфабрикува и/или да предостави подвеждаща, неточна и пристрастна информация.
"Съдиите не трябва да бягат от внимателното използване на изкуствен интелект, но трябва да гарантират, че отстояват доверието и поемат пълна лична отговорност за всичко, което произвеждат", каза Джефри Вос - вторият по ранг съдия в Англия и Уелс.
Във време, когато учени и правни експерти обмислят бъдещето, в което изкуственият интелект може да замени адвокатите, да помага при избора на съдебни заседатели и дори да решава дела, подходът, изложен на 11 декември от съдебната система, е сдържан. Но за една професия, която възприема технологичните промени бавно, това е проактивна стъпка, тъй като правителството и индустрията, а и обществото като цяло реагират на бързо развиващата се и навлизаща технология, представяна едновременно като панацея и като заплаха.
Като израз на усилието да се запази интегритета на съдебната институция, без да се спира модернизирането ѝ, ръководството за съдиите в Англия и Уелс е пълно с предупреждения за ограниченията на технологията и възможните проблеми, в случай че потребителят не знае как работи тя и как да я използва, отбелязва "Асошиейтед прес".
Какво казват експертите?
"В момента има бурен обществен дебат дали и как да се регулира изкуственият интелект", коментира Райън Абът, професор по право в Университета в Съри и автор на книгата The Reasonable Robot: Artificial Intelligence and the Law.
"Изкуственият интелект и съдебната система са нещо, за което хората са изключително загрижени, и сме особено внимателно, така че да държим хората в течение. Така че за мен изкуственият интелект може да играе трансформираща роля в съдебната дейност по-бавно, отколкото в други области, и там ще действаме по-предпазливо", обяснява Абът.
Абът и други правни експерти приветстват съдебната система за начина, по който реагират на излизащите нови и нови версии на изкуствения интелект, и се обединяват около позицията, че насоките ще бъдат широко разглеждани от съдилища и юристи по целия свят, които искат да използват изкуствен интелект или се тревожат от последиците от внедряването му.
С предприетата стъпка Англия и Уелс се придвижват в предните редици на съдилищата, които се занимават с ИИ, въпреки че това не е първият подобен пример.
Опитът дотук
Преди пет години Европейската комисия за ефикасност на правосъдието към Съвета на Европа издаде етична харта относно използването на ИИ в съдебните системи. Въпреки че този документ не е в крак с най-новите технологии, той се отнася до основни принципи като отчетност и намаляване на риска, които съдиите трябва да спазват.
Въпреки че в своя годишен доклад главният съдия на Върховния съд на САЩ Джон Робъртс разгледа плюсовете и минусите на изкуствения интелект, федералната съдебна система в Америка все още не е установила насоки относно ИИ. Щатските и окръжните съдилища са твърде фрагментирани за универсален подход, но отделни съдилища и съдии на федерално и местно ниво са определили свои собствени правила.
"Това със сигурност е един от първите, ако не и първият, публикуван набор от насоки, свързани с ИИ, на английски език, който се прилага широко и е насочен към съдиите и техния персонал", коментира издадените насоки за Англия и Уелс професорът по право в Пенсилванския университет Кари Коглианезе. Според нея "много, много съдии вътрешно са предупредили своите служители за това как съществуващите политики за поверителност и използване на интернет се прилагат към публичните услуги, предлагани от OpenAI (чрез ChatGPT) и други подобни$.
Тя отбелязва, че насоките за Англия и Уелс показват приемането на технологията от съдилищата, но не и пълното ѝ прегрcщане, и е критична към раздел, в който се казва, че от съдиите не се изисква да разкриват използването на технологиятаq и по-общо към липсата на механизъм за отчетност.
Капаните на технологията в съда вече са скандално известни, след като двама нюйоркски адвокати, прибегнали до ChatGPT за написването на правно досие, бяха глобени от гневен съдия, който нарече документа, под който са подписали, "юридически безсмислици" поради цитираните в него измислени случаи.
Тъй като чатботовете могат да запомнят въпроси, които им се задават, и друга информация, предоставена им чрез заявките, които обработват (prompts), съдиите в Англия и Уелс са инструктирани да не разкриват каквато и да било лична или поверителна информация.
Други предупреждения включват разбирането, че голяма част от правния материал, върху който са обучени системите за изкуствен интелект, идва от интернет и често се основава до голяма степен на законодателството на САЩ.
Кой не се страхува от ChatGPT
Как и за какво тогава биха могли да използват съдиите генеративен изкуствен интелект като ChatGPT? Юристи, които имат голям брой дела и рутинно пишат решения от десетки - дори стотици - страници, могат да включат в работата си като вторичен инструмент, особено когато пишат основни материали или обобщават информация, която вече знаят, отговарят съдилищата.
Наскоро съдията от апелативния съд Колин Бирс се похвали пред The Law Society за това как ChatGPT му е помогнал да напише параграф в решение в област на правото, която познава добре. "Знам какъв е отговорът, защото се канех да напиша абзац, който казваше същото, но (ChatGPT) го направи вместо мен и го копирах в моето решение. Наличен е и е извънредно полезен."
Дали финото настройване е начинът, по който трябва да се генерират правни становища (правни технически доклади) е въпрос, поставен във форума за разработчици на OpenAI още миналата пролет от човек, който е направил следното запитване:
"Искам да накарам GPT да може да пише правни становища (правни технически доклади) въз основа на предишния ми набор от данни за правни мнения. Например бих помолил GPT да напише правно становище, което обсъжда възможността данъкоплатец да не плаща продуктов данък. Така че GPT да напише това правно становище, като вземе предвид моите правни мисли по този въпрос, които могат да бъдат намерени в моите набори от данни за правни становища.
ChatGPT (уеб приложението) може да изпълни тази задача, тъй като запазва историята/контекста на чата. Но изпълни тази задача зле, защото бях копирал и поставил само 4 правни становища. Тъй като имам стотици правни мнения, опитах да използвам ChatGPT чрез openai API, но той няма начин да запази историята на чата, освен ако запазим целия набор от данни в JSON файл и го зареждаме всеки път когато трябва да го използваме. Това обаче би било твърде скъпо, тъй като openai API таксува на използван токен.
Тогава най-накрая стигнах до заключението, че най-подходящият подход би бил да настроя GPT модел, използвайки моя набор от данни."
В конкретния случай "фино настройване" (fine-tuning) се отнася до повторно трениране (обучение) на модела с нови данни, което му позволява да се "специализира" в конкретна област, като същевременно запазва своите общи способности за разбиране на езика. Развитието на дискусията може да бъде проследено тук.
Какво казва за себе си ChatGPT
Запитан как се справя с изготвянето на правни становища и справки, Perplexity Pro, настроен да използва ChatGPT 4, отговаря така:
Големите езикови модели (LLM) като мен са обещаващи в правната област, особено в задачи като тълкуване на договори, правни изследвания и изготвяне на правни документи. Използването им обаче е свързано както с предимства, така и с ограничения.
Предимства:
  • Ефективност: LLM могат бързо да генерират отговори и да изготвят документи, което може да спести време на юристите.
  • Достъпност: Те могат да помогнат на лицата, за които английският език не е майчин, като предоставят сложни формулировки, което потенциално може да подобри качеството на правните текстове за тези лица.
  • Подкрепа за правния превод: LLM могат да предложат нови методи за оценяване на договорното значение, което може да бъде от полза за съдиите и адвокатите, търсещи по-надеждни и възпроизводими методи за тълкуване на договорите.
  • Правни изследвания: LLM могат да синтезират съдебната практика, за да предоставят ясни отговори на правни въпроси, което може да бъде особено полезно при правни изследвания.
Рискове и ограничения:
  • Точност и надеждност: LLM могат да създадат неточно или ненадеждно съдържание, което може да доведе до непредвидени вредни резултати.
  • Етични опасения: Съществуват етични опасения, свързани с използването на поверителна информация, както и с възможността LLM да бъдат използвани за създаване на измамно правно съдържание.
  • Манипулативно поведение: Съществува риск страните да манипулират резултатите от LLM, за да обслужват своите интереси, за което съдиите и адвокатите трябва да бъдат предпазливи.
  • Правна отговорност: Адвокатите не трябва да абдикират от своите отговорности, като разчитат твърде много на LLM, както се вижда от случаите, в които бяха представени несъществуващи съдебни становища с фалшиви цитати и позовавания.
  • Предразсъдъци и неприкосновеност на личния живот: Включването на LLM в юридическата работа породи опасения относно неприкосновеността на личния живот и пристрастността, които трябва да бъдат разгледани.
Тъй като Perplexity се позовава на публикации, генерирайки отговори на направените заявки, в този случай може да се види, че сред използваните източници са The Promising Use of AI Models in Contract Interpretation на правния факултет на Пенсилванския университет, научна статия, публикувана в arxiv.org миналата пролет (A Short Survey of Viewing Large Language Models in Legal Aspect), The Robots Are Coming: AI LLMs and the Legal Profession в Американската адвокатска асоциация (American Bar Association), наред с други.