
От 2 август 2025 г. в Европейския съюз влязоха в сила нови правила за разработване и използване на модели с изкуствен интелект с общо предназначение (ИИОП) – технологии, които стоят в основата на системи като ChatGPT, Copilot и други генеративни AI решения.
Тези правила са част от прилагането на Акта за изкуствения интелект (AI Act) и изискват от разработчиците на такива AI модели:
- да поддържат и актуализират техническа документация
- да предоставят ясна и достъпна информация на организациите, които използват тези модели в свои продукти и услуги
- да прилагат политики за спазване на авторското право
- и да публикуват обобщение на данните, използвани за обучение на модела, по образец, одобрен от Европейската комисия.
В допълнение на тези мерки доставчиците на модели на AI с общо предназначение, пораждащи системен риск, трябва да извършват оценка на модела в съответствие със стандартизирани протоколи и инструменти, оценяват и ограничават възможните системни рискове на ниво ЕС, проследяват, документират и докладват на Службата по AI инциденти и гарантират подходящо равнище на защита на киберсигурността. Системни са например рисковете, свързани с дискриминация срещу определена група от населението, които, ако бъдат пренесени от модел с общо предназначение, биха могли да засегнат милиони потребители.
В подкрепа на прилагането на тези изисквания, през юли ЕК представи и Кодекс за поведение за модели с общо предназначение – доброволен документ, предлагащ насоки за етично и отговорно използване на AI, включително прозрачност, авторски права, сигурност и управление на риска. Макар и доброволен, Кодексът вече се възприема от водещи компании и организации като добросъвестен ориентир за съответствие с бъдещите правни изисквания. Той допринася за изграждането на доверие, защита на основните права и ефективно управление на рисковете по цялата верига – от разработчици и доставчици на AI модели до крайните потребители.
Приносът на институт GATE: от европейски политики към реални решения
Институт GATE към СУ "Св. Климент Охридски" – първият Център за върхови постижения в областта на големите данни и изкуствения интелект в Източна Европа – е сред експертните участници в разработването на Кодекса за поведение, като участва в две от специализираните работни групи:
- "Прозрачност и авторски права"
- "Управление на риска в организациите"
"Създаването на Кодекса е важна стъпка към реалното прилагане на етични и правни принципи в технологичната практика. Участието ни в този процес е част от нашия ангажимент за изграждане на етична, сигурна и отговорна AI екосистема, която да служи на обществото. За нас в GATE е от значение и да създаваме среда, в която разработените политики да могат да бъдат тествани и усъвършенствани", коментира Иво Емануилов, ръководител на Лабораторията за експериментално регулиране и цифрови политики (GATE ERPL) и представител на института в работните групи.
GATE продължава да развива своя принос чрез Лабораторията за експериментално регулиране и цифрови политики – новата иновационна лаборатория, създадена за разработване, тестване и оценка на технологични решения и политики, свързани с изкуствения интелект. Тя предлага:
- хибридна среда, която комбинира правен, етичен и технологичен анализ
- възможности за прототипиране на регулаторни модели
- контролирана среда за тестване на реалната приложимост и безопасност на AI технологии.
Лабораторията за експериментална регулация е първата по рода си в България и една от малкото в ЕС, която позволява реална проверка на ефективността и въздействието на нови AI решения още преди тяхното въвеждане на пазара.