Етичните насоки за надежден изкуствен интелект на Европейската комисия – отправна точка за създаването на подходяща регулаторна рамка

Адвокат Жулиета Мандажиева

Етичните насоки за надежден изкуствен интелект (в проект) („Насоките“) бяха публикувани за обсъждане миналия месец (декември 2018) от Експертната група на високо ниво по въпросите на Изкуствения интелект („ИИ“) към Европейската комисия. Окончателният вариант на Насоките ще бъде приет през март 2019 година, а 2 месеца по-късно – през май – се очаква и приемането на инвестиционни насоки и политика по отношение на ИИ, която следва да препоръча и нормативни промени във връзка с развитието на обществените отношения в тази област.

Насоките са структурирани около стремежа към надеждност на ИИ и изхождат от наличието на правно признати основни човешки права и общоприети ценности. От тях се извличат принципите на създаване и функциониране на надежден ИИ, съответно – формулират се позитивни изисквания, на които ИИ да отговаря и негативни предпоставки, които да се избягват.

Насоките имат незадължителен характер, но са от голяма важност, тъй като чертаят посоката на развитие на регулациите в тази област. Разработваните, изграждани или маркетирани към момента системи, представляващи ИИ, следва да ги вземат предвид, ако ще бъдат използвани в рамките на Европейското икономическо пространство. Принципите и препоръките, залегнали в Насоките, следва да бъдат заложени в ИИ от момента на неговото проектиране – в противен случай това може да се окаже невъзможно, съответно продуктът/услугата да стане неизползваем/а в ЕС поради колизия с тълкуването дори на съществуващите регулации на база Насоките. Такива примери могат да бъдат дадени с действащия Общ регламент за защита на личните данни, Европейската директива за отговорност при дефектни стоки 85/374/ЕИО, транспонирана в българския Закон за защита на потребителите и допълвана от Закона за задълженията и договорите).

Основните принципи, на които трябва да почива дизайна на ИИ, са откроени в Насоките, както следва:

  • Отчетност (възможност да се свържат последиците от действията на ИИ със същите)
  • Управление на данните
  • Недискриминация
  • Управление на автономния характер на ИИ (упражняване на надзор от човек),
  • Запазване на човешката автономия – хората не следва да бъдат обект на принуда или да бъдат подчинени на ИИ
  • Съблюдаване на личното пространство,
  • Устойчивост на повреди
  • Сигурност,
  • Прозрачност и яснота в принципите на действие на ИИ (нещо, което може да бъде предизвикателство при невронните мрежи и самообучаващия се софтуер например) – този принцип намира отражение и при изискването на GDPR за

ИИ може да причини дадена вреда, но отговорност в правен смисъл ще носи човекът/организацията, който/която отговаря за ИИ.

На база на основните човешки права, ценности и формулираните принципи от отношение на надеждния ИИ Експертната група посочва и някои от типичните сценарии, които са особено опасни за обществото и отделните хора и не следва да бъдат подкрепяни.

Например:

  • Идентификация на хора без тяхното знание/съгласие

 

С голямо значение при насърчаването на надеждния ИИ е отграничаването на насоченото наблюдение от масовото такова, както и използването на ИИ с цел идентификация спрямо безконтролното следене. Експертната група посочва GDPR, член 6 (съдържащ изискване за наличие на конкретно, посочено в закона основание за осъществяване на всяка една обработка на лични данни, каквато несъмнено е идентификацията хора чрез ИИ) като добра основа за изграждане на подходяща регулаторна рамка.

 

  • Прикрито използване на ИИ

 

Всеки човек има право да знае дали общува с друг човек или ИИ и това изискване трябва да е внедрено в дизайна на ИИ, комуникиращ с хора.

 

  • Така нереченият „скоринг“ на хора – комплексна социална оценка на поведението, потребителските навици, кредитоспособността и други критерии (възприета например в Китай) с помощта на ИИ, която води до едни или други ефекти за обектите на скоринга – например, по-евтини/по-скъпи услуги или дори отказ на услуги, например.

 

  • Използването на смъртоносни автономни оръжия

 

Прилагането на етични принципи в насочването на такива оръжия би следвало да намали отрицателния ефект от тях – например, насочването да се избягват деца. Отново се подчертава, че отговорност за жертвите трябва да се търси единствено от хората. Европейският парламент настоятелно призовава към изграждането на обща правна позиция във връзка с хуманитарните аспекти при използването на такива оръжия.

Насоките акцентират и върху възможните дългосрочни тенденции на развитие на ИИ, които трябва да бъдат следени отблизо и контролирани с цел предотвратяването на възможни отрицателни ефекти по отношение на обществото, а именно:

  • Създаването на изкуствено съзнание (ИИ със субективно възприятие за собственото си съществуване и предел на знание) би изисквало предоставянето на такъв ИИ на определени права и третирането му като етичен обект;

 

  • Създаването на „морални агенти“ – ИИ с възможност за автономно формиране на нормативно определено вътрешно убеждение (за добро и зло/законно и незаконно и т.н.), което би влязло в конфликт с автономността на хората и изключителното носене на правна отговорност от страна на последните в сравнение с ИИ;

 

  • Създаването на цялостен (не секторно ограничен) изкуствен интелект, който се самоподобрява – в последния случай предизвикателство би било осигуряването на придържането към определени, зададени предварително цели и ценности.

Някои от най-засегнатите сфери от обществения живот, регулирани от общностното право, се очаква да бъдат:

  • Защитата на потребителите (в момента обект на реконструкция в изпълнение на „Новата сделка за потребителите“ на ЕК от април 2018 (COM 183), включително предложените План за действие в областта на финансовите услуги за потребители: по-добри продукти, по-голям избор (СОМ 2017 139);

 

  • Защитата на личните данни – принципа на разбираемо обяснение на начина, по които оперира ИИ и ограничаването на дискриминацията при профилиране чрез ИИ е залегнал в съображения 63 и 71 от преамбюла и чл.13, ал.2, буква „е“ на Общия регламент за защита на личните данни; интересно би било да се проследи дали дискусията относно ИИ ще намери отражение и в дългоочаквания регламент за защита на неприкосновеността на личното пространство в дигитална среда („ePrivacy Regulation“);

 

  • Авторските права (интересно е дали въпросът кой притежава авторските права върху произведения, създадени от ИИ ще получи дефинитивен отговор в контекста на предприетата от ЕК модернизация на регулацията на авторското право в контекста на Единния цифров пазар);

 

  • Безвиновната отговорност за вреди (тенденциите в това отношение са залегнали в доклада на ЕК от 2018 година по отношение на актуалността на Директивата за отговорността по отношение на дефектни стоки 85/374/ЕИО).

 

Очаква се през май 2019 година да получим яснота по отношение на предлаганите промени или актуализации на приложимото законодателство в горните и други области, засегнати от навлизането на ИИ, от страна на ЕК.

Към Насоките е приложен списък с контролни въпроси, който може да бъде използван за проверка на надеждността на създавания ИИ и съобразяването му с водещите принципи, изложени по-горе. листът е адресиран най-вече до програмистите, инженерите и, най-общо казано създателите на такъв тип интелект. С голяма степен на вероятност в бъдеще неспособността на създателите на ИИ да демонстрират убедително съответствие с така изложените принципи, би било сериозна предпоставка съответният ИИ да се квалифицира като опасен или неподходящ за употреба на територията на ЕС. Списъкът предполага, например, политика по отношение на персонала, която да осигури, че създадения ИИ ще бъде минимално повлиян от предразсъдъци (например по отношение на раса, пол, сексуална ориентация), как са идентифицирани възможните рискове и какви планове за тяхното управление съществуват в организацията, наличие на детайлна обосновка на използваните алгоритми и начин за тяхното разбираемо обяснение на крайния ползвател, и други.

 

Какво следва да направи бизнеса?

 

Препоръчваме на компаниите и организациите, разработващи или активно използващи ИИ в дейността си, да се запознаят детайлно с Етичните насоки и, в случай, че май 2019 е прекалено напред във времето спрямо плановете им, да потърсят компетентно мнение относно вероятните начини, по които залегналите в Насоките принципи ще намерят отражение в законодателството. Междувременно създателите на ИИ следва да направят GAP анализ на сегашните си планове и съществуващите приложения на този тип софтуер на база приложението към Насоките, съдържащо конкретни контролни въпроси, предназначени да установят надеждността на даден ИИ. Най-модерното законодателство, имащо отношение към ИИ към момента, е GDPR. Така например, може да се приеме, че профилирането на база лични данни по метода „черна кутия“ чрез използването на, да речем, невронни мрежи, действащи на принципа „гора на решенията“ може да се окаже уязвимо от правна гледна точка поради това, че е почти невъзможно за обяснение. Макар в други области на обществения живот, където се използва ИИ, все още да няма позитивноправна регламентация, Етичните насоки не отстъпват от подхода, възприет от GDPR: „етичните съображения ни помагат да разберем как технологиите биха могли да повдигнат важни въпроси във връзка със спазването на основни човешки права при развитието и прилагането на ИИ, както и калибрират предписанията за това какво следва да правим с технологията за общото благо, което не се припокрива с онова, което можем да правим с нея“ [курсивът и преводът мои – Ж.М.]