Європейська Комісія розробила і презентувала правила
та заходи, спрямовані на перетворення Європи на світовий центр
надійного штучного інтелекту. «Поєднання першої в історії законодавчої
бази щодо штучного інтелекту та нового узгодженого плану дій з
державами-членами ЄС гарантуватиме безпеку та дотримання основних прав
людей та бізнесу, водночас посилюючи розвиток штучного інтелекту,
інвестиції та інновації в ЄС», — йдеться у повідомленні Єврокомісії.
Маргрете Вестагер, Єврокомісарка з цифрової економіки та суспільства, заявила: «Що стосується штучного інтелекту, довіра є обов'язковою, а не бажаною. Встановивши стандарти, ми зможемо прокласти шлях до етичних технологій у всьому світі та забезпечити конкурентоспроможність ЄС на цьому шляху».
Єврокомісар з питань внутрішнього ринку та послуг Тьєррі Бретон переконаний: «Штучний інтелект — це засіб, а не мета. Він існує десятки років, але досяг нових можливостей завдяки обчислювальним потужностям. Це створює величезний потенціал у різноманітних сферах, таких як охорона здоров’я, транспорт, енергетика, сільське господарство, туризм чи кібербезпека. Водночас, він представляє і низку ризиків. Сьогоднішні пропозиції мають на меті зміцнити позиції Європи, як глобального центру в галузі штучного інтелекту від лабораторій до ринку, а також гарантувати, щоб штучний інтелект в Європі відповідав цінностям та правилам».
Запропонований Єврокомісією новий регламент ЄС щодо штучного інтелекту має на меті гарантувати довіру європейців до нього. Пропорційні та гнучкі правила враховуватимуть конкретні ризики, які становлять системи на основі штучного інтелекту, і встановлюватимуть найвищі стандарти.
Європейський підхід до надійного штучного інтелекту передбачає, що правила застосовуватимуться однаково у всіх державах-членах, а формуватимуться вони на основі оцінки ризиків. Відтак, ризики запропоновано розділити за такими категоріями:
Неприйнятний ризик: стосується систем штучного інтелекту, які становлять загрозу безпеці, засобам до існування та правам людей. Сюди входять системи або програми ШІ, які маніпулюють поведінкою людини, щоб обійти вільну волю користувачів (наприклад, іграшки, що використовують голосову допомогу, що заохочує небезпечну поведінку неповнолітніх), та системи, що дозволяють урядам проводити «соціальні рейтинги». Усі системи зі штучним інтелектом, які належать до категорії «неприйнятного ризику» будуть заборонені.
Високий ризик. Системи штучного інтелекту, визначені як такі, що становлять високий ризик, використовуються в:
• критичній інфраструктурі (наприклад, транспорт), що може загрожувати життю та здоров’ю громадян.
• Освітній або професійній підготовці, бо тут є доступ до освіти та професійного курсу чийогось життя (наприклад, підрахунок іспитів).
• Працевлаштуванні, управлінні працівниками та доступі до самозайнятості (наприклад, програмне забезпечення для сортування резюме).
• Приватних та державних послугах (наприклад, формуванні кредитного балу, який може стати підставою для відмови громадянам в отриманні позики).
• Правоохоронних органах, які можуть перешкоджати основним правам людей (наприклад, оцінка достовірності доказів).
• Управлінні міграцією, притулком та прикордонним контролем (наприклад, перевірка справжності проїзних документів).
• Правосудді та демократичних процесах.
Системи штучного інтелекту з високим ризиком будуть особливо прискіпливо перевіряти перед тим, як дозволити їхнє використання.
Усі віддалені системи біометричної ідентифікації вважаються ризикованими. Їхнє використання в громадських місцях з метою забезпечення правопорядку загалом заборонено. Винятки суворо визначені та регламентовані (наприклад, там, де це життєво необхідно для пошуку зниклої дитини, для запобігання конкретній та неминучій терористичній загрозі або для виявлення чи притягнення до відповідальності винного або підозрюваного у тяжкому кримінальному правопорушенні). Таке використання підлягає санкціонуванню судом або іншим незалежним органом, а також відповідним обмеженням у часі, географічному охопленні та пошуках баз даних.
Обмежений ризик — системи штучного інтелекту з конкретними зобов’язаннями щодо прозорості. Користуючись системами ШІ, такими як чат-боти, користувачі повинні знати, що вони взаємодіють з машиною, щоб мати можливість вирішувати — продовжувати чи ні.
Мінімальний ризик: Законодавчі пропозиції Єврокомісії дозволяють безкоштовно використовувати такі програми, як відеоігри з підтримкою ШІ або фільтри спаму. Використання таких технологій не потребує регламентування, оскільки ці системи зі штучним інтелектом представляють лише мінімальний ризик для прав чи безпеки громадян. Переважна більшість систем зі штучним інтелектом відноситься саме до цієї категорії.
Єврокомісія пропонує віддати повноваження щодо контролю за дотриманням правил у сфері регулювання штучного інтелекту національним компетентним органам. Для розробки і впровадження стандартів пропонується створити Європейську ради з питань штучного інтелекту. Крім того, пропонуються добровільні кодекси поведінки щодо штучного інтелекту, що не мають високого ризику.
Пропозиції Єврокомісії щодо регулювання штучного інтелекту ще має схвалити Європейський парламент та держави-члени ЄС.
Маргрете Вестагер, Єврокомісарка з цифрової економіки та суспільства, заявила: «Що стосується штучного інтелекту, довіра є обов'язковою, а не бажаною. Встановивши стандарти, ми зможемо прокласти шлях до етичних технологій у всьому світі та забезпечити конкурентоспроможність ЄС на цьому шляху».
Єврокомісар з питань внутрішнього ринку та послуг Тьєррі Бретон переконаний: «Штучний інтелект — це засіб, а не мета. Він існує десятки років, але досяг нових можливостей завдяки обчислювальним потужностям. Це створює величезний потенціал у різноманітних сферах, таких як охорона здоров’я, транспорт, енергетика, сільське господарство, туризм чи кібербезпека. Водночас, він представляє і низку ризиків. Сьогоднішні пропозиції мають на меті зміцнити позиції Європи, як глобального центру в галузі штучного інтелекту від лабораторій до ринку, а також гарантувати, щоб штучний інтелект в Європі відповідав цінностям та правилам».
Запропонований Єврокомісією новий регламент ЄС щодо штучного інтелекту має на меті гарантувати довіру європейців до нього. Пропорційні та гнучкі правила враховуватимуть конкретні ризики, які становлять системи на основі штучного інтелекту, і встановлюватимуть найвищі стандарти.
Європейський підхід до надійного штучного інтелекту передбачає, що правила застосовуватимуться однаково у всіх державах-членах, а формуватимуться вони на основі оцінки ризиків. Відтак, ризики запропоновано розділити за такими категоріями:
Неприйнятний ризик: стосується систем штучного інтелекту, які становлять загрозу безпеці, засобам до існування та правам людей. Сюди входять системи або програми ШІ, які маніпулюють поведінкою людини, щоб обійти вільну волю користувачів (наприклад, іграшки, що використовують голосову допомогу, що заохочує небезпечну поведінку неповнолітніх), та системи, що дозволяють урядам проводити «соціальні рейтинги». Усі системи зі штучним інтелектом, які належать до категорії «неприйнятного ризику» будуть заборонені.
Високий ризик. Системи штучного інтелекту, визначені як такі, що становлять високий ризик, використовуються в:
• критичній інфраструктурі (наприклад, транспорт), що може загрожувати життю та здоров’ю громадян.
• Освітній або професійній підготовці, бо тут є доступ до освіти та професійного курсу чийогось життя (наприклад, підрахунок іспитів).
• Працевлаштуванні, управлінні працівниками та доступі до самозайнятості (наприклад, програмне забезпечення для сортування резюме).
• Приватних та державних послугах (наприклад, формуванні кредитного балу, який може стати підставою для відмови громадянам в отриманні позики).
• Правоохоронних органах, які можуть перешкоджати основним правам людей (наприклад, оцінка достовірності доказів).
• Управлінні міграцією, притулком та прикордонним контролем (наприклад, перевірка справжності проїзних документів).
• Правосудді та демократичних процесах.
Системи штучного інтелекту з високим ризиком будуть особливо прискіпливо перевіряти перед тим, як дозволити їхнє використання.
Усі віддалені системи біометричної ідентифікації вважаються ризикованими. Їхнє використання в громадських місцях з метою забезпечення правопорядку загалом заборонено. Винятки суворо визначені та регламентовані (наприклад, там, де це життєво необхідно для пошуку зниклої дитини, для запобігання конкретній та неминучій терористичній загрозі або для виявлення чи притягнення до відповідальності винного або підозрюваного у тяжкому кримінальному правопорушенні). Таке використання підлягає санкціонуванню судом або іншим незалежним органом, а також відповідним обмеженням у часі, географічному охопленні та пошуках баз даних.
Обмежений ризик — системи штучного інтелекту з конкретними зобов’язаннями щодо прозорості. Користуючись системами ШІ, такими як чат-боти, користувачі повинні знати, що вони взаємодіють з машиною, щоб мати можливість вирішувати — продовжувати чи ні.
Мінімальний ризик: Законодавчі пропозиції Єврокомісії дозволяють безкоштовно використовувати такі програми, як відеоігри з підтримкою ШІ або фільтри спаму. Використання таких технологій не потребує регламентування, оскільки ці системи зі штучним інтелектом представляють лише мінімальний ризик для прав чи безпеки громадян. Переважна більшість систем зі штучним інтелектом відноситься саме до цієї категорії.
Єврокомісія пропонує віддати повноваження щодо контролю за дотриманням правил у сфері регулювання штучного інтелекту національним компетентним органам. Для розробки і впровадження стандартів пропонується створити Європейську ради з питань штучного інтелекту. Крім того, пропонуються добровільні кодекси поведінки щодо штучного інтелекту, що не мають високого ризику.
Пропозиції Єврокомісії щодо регулювання штучного інтелекту ще має схвалити Європейський парламент та держави-члени ЄС.
Ще за розділом
“Новини”
25 листопада 2024 09:26
22 листопада 2024 17:44
19 листопада 2024 08:58
14 листопада 2024 18:40
14 листопада 2024 18:18
12 листопада 2024 18:07
11 листопада 2024 12:05
05 листопада 2024 18:29
05 листопада 2024 07:51
04 листопада 2024 09:48