Колко са опасни: Европарламентът прие първия в света закон, регулиращ изкуствения интелект

На живо
Дебатът в парламента дали Мария Филипова да стане заместник-омбудсман

Колко са опасни: Европарламентът прие първия в света закон, регулиращ изкуствения интелект

Според закона потребителят трябва да бъде информиран всеки път, когато влиза в досег с продукт, създаден от изкуствен интелект
Reuters
Според закона потребителят трябва да бъде информиран всеки път, когато влиза в досег с продукт, създаден от изкуствен интелект
С продължили почти три години преговори ЕС направи предпоследната крачка към приемането на първото в света законодателство, регулиращо изкуствения интелект (ИИ).
В сряда с 523 гласа, 46 против и 49 въздържали се Европейският парламент одобри закона, който ще стане юридически акт след окончателно гласуване на страните членки.
Вотът стана възможен след най-дългия маратон от преговори между институциите - 38 часа, които бяха необходими за окончателното съгласуване на текста на закона през февруари.
В него се казва, че системите за изкуствен интелект са допустими след анализ, класифициращ ги според риска, който представляват за потребителите. Различните нива на риск означават повече или по-малко регулиране.
Със закона се установяват задължения за доставчици и потребители в зависимост от нивото на риск, разделени в четири категории: системи с неприемлив риск, които ще бъдат забранени, с висок риск, които ще трябва да отговарят на определени изисквания. Описват се задълженията на авторите, пускащи генеративни приложения, и за тези с ограничен риск.
Българският евродепутат от ЕНП Ева Майдел, която работи по приемането на закона, каза в пленарната зала в Страсбург, че с него "бъдещето на ИИ става по-демократично, по-безопасно и по-конкурентоспособно, но само ако се прави правилно".
Неприемлив риск
Системите, преценени като заплаха за хората ще бъдат забранени. Като такива се смятат:
  • Когнитивна поведенческа манипулация на хора или специфични уязвими групи: например играчки с гласово активиране, които насърчават опасно поведение при деца
  • Социално оценяване: класифициране на хора въз основа на поведение, социално-икономически статус или лични характеристики
  • Биометрична идентификация и категоризация на хора
  • Системи за биометрична идентификация в реално време и от разстояние като лицево разпознаване.
Лицевото разпознаване ще бъде допустимо по изключение при ограничен брой случаи, а системите за дистанционна биометрична идентификация, извършвана след значително забавяне - за наказателно преследване на тежки престъпления и само след одобрение от съда.
Затова пък приложенията, разпознаващи емоциите на работниците и на учениците, са изцяло забранени.
Висок риск
Системите с изкуствен интелект, които влияят отрицателно върху безопасността или основните права, ще бъдат разделени на две категории:
  • ИИ системи, които се използват в продукти, попадащи в обхвата на законодателството на ЕС за безопасност на продуктите, като играчки, в авиацията, в автомобили, в медицински изделия и асансьори.
  • ИИ системи, които ще трябва да бъдат регистрирани в база данни на ЕС, като такива са използваните в управление на критична инфраструктура, в образованието, медицината, правораздаването, управлението на границите или при избори.
Генеративни ИИ
В тази категория са продукти като чатбота ChatGPT. За тях ще важи правилото, че те трябва да декларират, че съдържанието им е генерирано от ИИ и да публикуват модела, така че да се предотврати вкарването на незаконни данни, както и на резюмета на защитени с авторски права данни, използвани за обучение.
Силно въздействащите ИИ модели с общо предназначение, които биха могли да представляват системен риск, като по-усъвършенствания ИИ модел GPT-4, ще трябва да бъдат подложени на задълбочени оценки, а сериозните инциденти с тях ще трябва да бъдат докладвани на Европейската комисия.
Ограничен риск
Системите с изкуствен интелект с ограничен риск са най-масовата група, която е най-слабо регулирана. Те ще трябва да отговарят на минимални изисквания за прозрачност. След като взаимодейства с приложенията, потребителят трябва да може сам да реши дали иска да продължи да ги използва. Потребителите трябва да бъдат информирани, когато взаимодействат с ИИ, генериращи или манипулиращи изображение, аудио- или видеосъдържание, например дълбинни фалшификати (deepfakes).
Приемането на Закона за изкуствения интелект се забави заради блокирането му в продължение на седем месеца от Франция, която се опитваше да получи допълнителни отстъпки, за регулирането на софтуерни програми, способни да създават текст или изображения, за да защити собствените си стартиращи ИИ компании. Тези инструменти се произвеждат от няколко френски компании, както и от гиганти като "Гугъл" и OpenAI, създателя на чатбота ChatGPT.
Париж се опита неуспешно да ограничи разкриването на обобщенията на данните за обучението на тези модели до "доверена трета страна", като например Европейската агенция за изкуствен интелект, която ще бъде създадена със Закона за изкуствен интелект. Париж искаше и увеличение на прага на изчислителната мощност, над който най-мощните модели се считат за "системни" и подлежат на засилени задължения за оценка и смекчаване на риска (пристрастия, дезинформация, грешки и т.н.).
Впоследствие Франция отстъпи, за да може законодателството, което ще влезе в сила от 2025 г., да бъде прието преди европейските избори през юни.