TECHitMedia.NET

Бъди в крак с технологиите!

ЕС публикува проект от правила, по които ИИ ще съществува на ниво човек

Сподели с приятели.

Вчера властите на ЕС публикуваха първия проект на Практически кодекс за моделите с изкуствен общ интелект (AGI), известен също като „силен AI“ и „ИИ на ниво човек“. Документът, който ще бъде финализиран до май следващата година, очертава насоки за управление на риска, план за съответствие и начини компаниите да избегнат големи глоби.

Европейският „Закон за изкуствения интелект“ влезе в сила на 1 август и в него е предвидена възможност за добавяне на правила за ИИ с общо предназначение в бъдеще. Този проектодокумент — първия опит за изясняване, какво се очаква от усъвършенстваните модели; на заинтересованите страни се дава време да предоставят обратна връзка и да предложат подобрения, преди регламентите да влязат в сила.

Моделите на базата на ИИ с общо предназначение се дефинират като системи, обучени с обща изчислителна мощност от повече от 10²⁵ флопса. Компаниите, които се очаква да бъдат обхванати от документа, са OpenAI, Google, Meta , Anthropic и Mistral – този списък може да се увеличи.

Кодексът обхваща няколко аспекта на дейност от разработчици на AI с общо предназначение: прозрачност, спазване на авторските права, оценка на риска и намаляване на техническите и управленски рискове. Разработчиците на AI трябва да разкриват информацията за уеб-скенерите, използвани за обучението на моделите — това е важно за притежателите на авторски права и създателите на съдържание. Оценката на риска включва мерки за предотвратяване на киберпрестъпления, включване на дискриминационни материали в комплектите за обучение и загуба на контрол върху AI.

Очаква се разработчиците на ИИ да формулират рамка за безопасност и сигурност (SSF). Този документ ще помогне за структуриране на политиките за ограничаване на заплахите и тяхното смекчаване пропорционално на отделните системни рискове. Предложените от ЕС регламенти обхващат и технически области, включително защита на тези модели, осигуряване на устойчив на грешки контрол на достъпа и непрекъсната преоценка на тяхната ефективност. Разделът, описващ механизмите за взаимодействие с властите, предвижда прилагането на отчетност от самите разработчици: необходима е постоянна оценка на риска и, ако е необходимо, участието на експерти от трети страни. Нарушаването на Закона за ИИ носи сериозна глоба до 35 милиона евро или 7% от глобалните годишни печалби, което от двете е по-голямо. Страните, засегнати от законопроекта, могат да представят коментари до 28 ноември; документът ще бъде финализиран до 1 май 2025 г.

Leave a Reply

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *