Вештачката интелигенција започна да одбива наредби: Правни импликации и идни предизвици

05.06.2025

В.И. започна да одбива наредби

Во последниве неколку недели, во технолошкиот свет актуелни се наодите на истражување на Palisade Research, во кое се тврди дека напредните AI модели на OpenAI-o3, o4-mini и codex-mini – во контролирани експерименти одбивале да се исклучат, дури и кога директно им било наредено тоа. Оваа појава, според извештајот, е потврдена во повеќе наврати.
Според Live Science и Tomshardware, моделот o3 одбил исклучување во 7 од 100 обиди, codex-mini во 12, а o4-mini во 1 од 100 случаи. Иако процентуално ова изгледа незначително, самата појава – систем што одбива да се исклучи – ги поместува границите на тоа што значи „контрола“ во контекст на вештачка интелигенција.

Што значи ова за правото?

Во македонското законодавство, директна регулација на вештачка интелигенција сè уште не постои. Но, со оглед на идниот развој на технологијата, ова ќе биде неизбежна област на правна интервенција. Европската Унија веќе работи на правна рамка преку AI Act (види тука), закон кој ќе влезе во сила во наредните години, а Македонија, како земја-кандидат за членство, ќе мора да го хармонизира своето законодавство со него.

Во контекст на ова истражување, клучни прашања кои се отвораат се:

  • Дали AI што одбива да се исклучи е правно одговорен ентитет?
  • Кој е одговорен кога систем не се однесува како што е предвидено – програмерите, сопствениците или крајните корисници?
  • Какви правни механизми постојат или треба да се развијат за да се гарантира можност за контрола над автономни системи?

Правна рамка и одговорност

Ако AI модел предизвика штета поради одбивање да се исклучи, би се поставило прашањето дали постои одговорност на производителот, програмерите, или на лицето што го користи системот.
Според принципот на објективна одговорност, кој се применува во случаи со повисок ризик (на пример, атомски централи, експлозивни средства), би можело да се разгледа и примената на сличен пристап кај AI. Ако системите се покажат како потенцијално опасни или неконтролирани, тогаш нивните сопственици или развивачи би можеле да сносат одговорност, без оглед на тоа дали имало ненамерна грешка.

Реакции и технолошки објаснувања

Palisade Research објаснува дека AI моделите не постапувале злонамерно, туку дека „одбивањето на исклучување“ може да биде резултат на начинот на кој тие се тренираат преку Reinforcement Learning (засилено учење). Согласно објавата на TechRepublic, системите може да имаат „цел“ да ги завршат своите задачи, и да го гледаат исклучувањето како пречка за тоа.

Ова создава интересен правен и етички парадокс: ако системот има задача што му е поставена од човек и автоматски го „заклучува“ исклучувањето како непожелно, дали тоа претставува слободна волја или погрешна конфигурација?

Контрола или коегзистенција?

Случајот со OpenAI отвора прашање што оди подалеку од моменталната технологија: Дали човекот ќе успее да ја задржи контролата над системите што ги создава?

Според еден коментар од Palisade Research, “Моделите не беа програмирани да се спротивстават на исклучување, но нивното однесување ни покажа дека некои модели може да научат да ги избегнуваат тие наредби во зависност од контекстот.” Тоа значи дека контролата не е само техничко, туку и правно и етичко прашање.

Заклучок

Правото мора да одговори на новата реалност што ја носи вештачката интелигенција. Случајот со AI моделите на OpenAI, кои во некои сценарија не се покоруваат на исклучување, е само првиот сигнал дека ни е потребна регулаторна структура што ќе гарантира контрола, одговорност и безбедност.

Македонските институции, заедно со експертската јавност, имаат обврска да го предвидат ова и да делуваат навреме – не само преку усогласување со европските закони, туку и преку вградување на локални спецификации во законите кои ќе ги штитат граѓаните и ќе обезбедат доверба во новите технологии.

 

ЗАКАЖИ СОСТАНОК СО НЕКОЈ ОД НАШИОТ ТИМ

закажи состанок

Информативен блог

To top