ПРАВО

В ЕС се работи върху Директива за отговорността на изкуствения интелект

В ЕС се работи върху Директива за отговорността на изкуствения интелект

1. Изкуственият интелект и свързаната с него технология все повече увеличават своето приложение с цел усъвършенстване процеса на вземане на решения в редица сектори като здравеопазването

(диагностициране на пациенти, извършване на определени манипулации), мобилността (системи за безпилотно управление на превозни средства) или агрикултурата ( така наречените средства за наблюдение на посевите).
Европейската комисия започна есенния сезон 2022/2023 г. с предложение за нова Директива за отговорността на изкуствения интелект (ИИ). Нейното предназначение е да въведе ред в исковете за обезщетение на потребителите и търговците за щети, причинени от продукти и услуги, поддържани с ИИ. С това предложение Комисията изрази своето намерение да уеднакви в държавите членки правния режим на извъндоговорната отговорност за вреди, причинени от ползването на ИИ и да въведе нов режим на отговорност целящ да гарантира по-голяма правна сигурност и по този начин повишаване на доверието на потребителите в ИИ. Само така могат да се гарантират успешни иновации в целия ЕС в обстановката на неизбежното нахлуване на ИИ в нашия живот и професионална дейност.
2. Необходимостта от въвеждане на нова група от правила за отговорност, специално насочени към ИИ, се корени в идеята, че националните правила за отговорност, които понастоящем са в сила в държавите-членки на ЕС, не са добре приспособени към адекватно разглеждане на искове за отговорност за щети, причинени от ИИ- активирани продукти и услуги. Погледнато от зрителния ъгъл на потребителя, това означава, че съгласно съществуващите правила за отговорност той, когато пострада от рисковете на ИИ, ще носи тежестта на доказване и като такъв ще е длъжен да докажи неправомерното действие или бездействие на лицето, което е причинило щетата. Тъй като системите с изкуствен интелект обикновено са известни със своя ефект на „черна кутия“, характеризиращ се със сложност и неизвестност, се счита, че за потребителите ще бъде трудно да идентифицират отговорното лице и да предоставят необходимите доказателства.
3. Тук трябва обаче да посочим и обратната страна на медала. Въпросът за имуществената отговорност на производителя или доставчика на ИИ. Неефективността на настоящите правила за отговорност за вреди поражда риска от прекалено тежката отговорност, която ще падне върху тях поради голямата степен на правна несигурност, свързана с тези правила. Днес, когато увреденото лице предяви иск за обезщетение за щети, свързани с ИИ, националните съдилища ще бъдат изправени пред специфичните характеристики на ИИ и трябва да могат да се адаптират към начина, по който ще прилагат съществуващите правила на ad hoc основа, за да постигнат справедлив резултат за лицето, претърпяло вреди. Такъв подход, индивидуален за всеки отделен случай прави невероятно трудно за бизнеса, създаващ ИИ, да предвиди как могат да бъдат приложени съществуващите правила за отговорност, както и да оцени и застрахова излагането си на потенциални искове за отговорност. Освен това тази правна несигурност може да бъде още по-голям проблем за предприятията, търгуващи през граница, тъй като несигурността ще се разпростре до различни национални юрисдикции. Това може лесно да доведе до силно фрагментиран съдебен пейзаж на правилата за гражданска отговорност за продукти и услуги на ИИ, което несъмнено ще засегне най-много малките и средните търговци, тъй като те не могат да разчитат на вътрешна юридическа експертиза, нито да притежават финансови ресурси за външни съдебни консултиране.



4. Като вземем предвид бързото технологично развитие, включително неговия огромен потенциал за стимулиране на европейската икономика, не трябва да рискуваме ненужни пречки да възпрепятстват иновациите на европейските предприятия. Поради това Европа приветства предложението на Комисията за установяване на по-ясни правила за европейските предприятия, работещи със системи, продукти или услуги, свързани с използване на ИИ. Въпреки това, тъй като предложението все още е в начален етап, потребителите и бизнесмените ще наблюдават отблизо преговорите, които се провеждат между политиците и ще се стремят да им повлияят, когато е необходимо.
5. От гледна точка на правото на ЕС се правят редица предложения, насочени към създаване на нови положения в областта на разкриване на доказателства и оборими презумпции.
Въз основа на предложението на Комисията за Директивата за отговорността за ИИ, исковете за гражданска отговорност за щети, свързани с ИИ, в бъдеще ще бъдат правно оценявани въз основа на понятията „разкриване на доказателства“ и „оборими презумпции“. Конкретно това означава, че тежестта на доказване върху ищците ще бъде облекчена. Като такива, (потенциалните) ищци вече ще могат да поискат ответникът да им осигури достъп до доказателства за предполагаемите щети, свързани с ИИ, което може да помогне да се постигне по-голяма правдоподобност на иска за щети. Ако фирмите, предложили и доставили ИИ, не предоставят доброволно достъп до такива потенциални доказателства, ищецът може при обосновано искане да поиска от национален съд да разпореди разкриването на информация. Ако въпросният бизнес все пак откаже да разкрие съответната информация, националният съд може да предположи, че той не е спазил правилата относно задължението за грижа. По този начин съдът ще приеме (ще презумира) причинно-следствената връзка между вината на ответника и резултата, произведен от система с ИИ, или неуспеха на системата с ИИ да произведе планирания резултат. Тази презумпция може да бъде опровергана от компанията - производител, доставчик или търговец на ИИ, но това ще бъде по-трудният процес.
И накрая, следва да се отбележи, че предложената директива се отнася само за високорисков ИИ, така, както ще бъде определен в унифицираните правила за отговорността от ИИ. Тя е длъжна също така да включва предпазна мярка за защита на търговските тайни на производителя на ИИ.
6. В заключение бих искала да подчертая, че този път Европейският съюз няма да бъде изненадан. Успоредно със стремителното нахлуване на ИИ ще навлезе и правната уредба на отговорността от реализиране на високорисковия ИИ в медицината, поради което няма да бъдем неприятно изненадани както при другите нови явления, които през последните три години неочаквано ни връхлетяха. И както ИИ ще внесе революция в здравеопазването, така ще промени съществено основни понятия на имуществената отговорност за вреди, причинени на пациентите и ще въведе значителни новости в доказването в гражданския процес.

Проф. д-р Поля Голева


Хареса ли ви тази статия? Ако не искате да пропуснете някоя, абонирайте се за нашия бюлетин.

Подобни статии