Необхідність врегулювання розвитку штучного інтелекту на законодавчому рівні
Коли мова заходить про штучний інтелект, то на думку відразу спадають герої з кінострічок «Матриця», «Із машини», «Термінатор», «Я, робот», та три закони робототехніки Айзека Азімова. Матеріалу для польоту фантазії достатньо.
Ми відразу уявляємо робота, який би допомагав нам у побуті, виконуючи легку роботу та відповідаючи на нескладні питання, і, насправді, це вже не є недосяжною фантастикою.
У сюжетах згадуваних фільмів, ми бачимо, що штучний інтелект там показують майже сильнішим за людський - рішучий і раціональний алгоритм без жодних емоцій, який протиставив свої інтереси інтересам людини, його творця.
У фільмах людина перемогла, але ж це кіно, у житті може бути інакше. Щодня на мільярдні приватні інвестиції сотні тисяч непересічних умів докладають титанічних зусиль для вдосконалення штучного інтелекту, і темпи його розвитку ростуть у геометричній прогресії. Історія людства показує, що жадоба влади та надприбутків пересилює інші гуманні потреби.
Нещодавно світ побачив GPTchat, який своїми вміннями перевершив найоптимістичніші очікування щодо його здібностей і щодня вражає мільйони користувачів у різних країнах швидкістю оброблення інформації та логічністю відповідей на поставлені питання.
Іллон Маск у своїх інтервʼю порівнював роботи з розвитку штучного інтелекту зі створенням ядерної бомби та закликав до державного регулювання таких програм.
Наприкінці травня цього року значна кількість видатних представників IT-бізнесу та розвитку штучного інтелекту підписали спільну заяву щодо застережень із розроблення ШІ. Серед підписантів листа такі впливові фігури як Сем Альтман, голова OpenAI, Деміс Хассабіс, голова Google DeepMind, Даріо Амодей, голова Anthropic, а також Джеффрі Хінтон і Йошуа Бенгіо, лауреати премії Тьюринга, які вважаються піонерами в галузі сучасного ШІ.
«Зменшення ризику зникнення людства через ШІ повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», — йдеться в заяві, опублікованій Центром безпеки ШІ.
Здебільшого правове регулювання суспільних відносин у певній сфері починається після виникнення відповідних негативних наслідків. Наприклад, історія сучасних правил дорожнього руху налічує більше ста років і кожне з них писалося після, у деяких випадках не однієї, дорожньо-транспортної пригоди. Якщо припустити, що невдовзі штучний інтелект як мегапотужний інформаційний ресурс буде здатний виконувати складні логічні задачі, швидко самовдосконалюватися та приймати самостійні найбільш раціональні рішення, то в умілих руках «злого генія» він може завдати непоправної шкоди суспільним інтересам та ще й у межах закону. Наприклад, вивчивши в інтернеті всі наявні судові рішення та статті на юридичну тему, цілком можливо виділити найбільш ефективні схеми та самостійно їх застосувати в інтересах певного замовника в тій чи іншій сфері, що може привести до блокування аукціонів на державні замовлення, агресивну купівлю акцій стратегічно важливих підприємств, корпоративного шантажу тощо. Значний ризик може бути у застосуванні ШІ під час передвиборчих гонок до вищих інститутів влади, коли ШІ може вивчити сторінки в соцмережах кожного потенційного виборця, його вподобання і цінності та надіслати йому персональний контент передвиборчої агітації певного кандидата, який точно буде збігатися з уявленнями такої особи про найкращого кандидата, або дезінформацію такої ж якості. Також подібна технологія може бути використана для розповсюдження пропаганди в умовах війни.
Окреме питання виникає щодо відповідальності за спричинену ШІ шкоду суспільним інтересам.
Статтею 11 Кримінального кодексу України визначено, що кримінальним правопорушенням є передбачене цим Кодексом суспільно небезпечне винне діяння (дія або бездіяльність), вчинене суб’єктом кримінального правопорушення.
У статті 1166 Цивільного кодексу України зазначено, що майнова шкода, завдана неправомірними рішеннями, діями чи бездіяльністю особистим немайновим правам фізичної або юридичної особи, а також шкода, завдана майну фізичної або юридичної особи, відшкодовується в повному обсязі особою (фізичною або юридичною), яка її завдала. Особа, яка завдала шкоди, звільняється від її відшкодування, якщо вона доведе, що шкоди завдано не з її вини.
Тепер давайте уявимо, що система зі штучним інтелектом спричинила певну шкоду суспільним інтересам. При цьому візьмемо за постулат, що штучний інтелект може приймати рішення самостійно. Тобто при вчиненні певного діяння, яке спричинило шкоду, ШІ приймав рішення самостійно.
Отже, давайте спробуємо розібратися, хто буде відповідати за спричинення шкоди. ШІ — не фізична чи юридична особа. Якщо у ШІ є визначений власник, то він, правомірно пославшись на частину 2 статті 1166, може уникнути відповідальності, адже його волевиявлення на вчинення такого діяння не було.
З такої логіки розвалюється і склад кримінального правопорушення.
З огляду на такі та інші негативні наслідки розвитку штучного інтелекту інституції низки провідних країн світу почали розробляти законодавчі обмеження розвитку та застосування штучного інтелекту.
Так, 14 червня цього року Європейський парламент, як флагман захисту прав людини, схвалив проект тексту, який ляже в основу майбутнього закону, що встановлюватиме правила у сфері штучного інтелекту. Передбачається, що закон зможе набути чинності не раніше 2026 року.
Завершуючи цю публікацію, хотів би застерегти, що важливо не тільки захоплюватися висотою людської думки та бачити новий етап розвитку цивілізації, але ще й досить критично ставитися до розвитку штучного інтелекту та ризиків, із ним пов’язаних.
У зв’язку із цим, можливо, уже варто на законодавчому рівні почати розробку та введення таких запобіжників в Україні:
1) зобов’язати всіх володільців систем з використанням штучних нейронних мереж реєструватися у відповідному державному реєстрі, передбачити відповідальність у разі порушення такої вимоги;
2) передбачити контроль за стартапами та інвестиціями у такі проекти в частині мети їх створення;
3) заборонити використання таких систем у сферах суспільних відносин, у яких може бути потенційно завдано значної шкоди державним інтересам, правам і свободам громадян зі встановленням кримінальної відповідальності володільців систем за таке порушення.
Державні або громадські інституції повинні збалансувати користь від впровадження штучного інтелекту в наше життя та запобігти можливій шкоді його розвитку у небезпечному руслі.
Коментарі
До статті поки що не залишили жодного коментаря. Напишіть свій — і будьте першим!