Изкуственият интелект, истинските рискове – алгоритмите „мислят“ вместо нас

Изкуственият интелект

Изкуственият интелект (ИИ) с все по-бързи темпове започва да навлиза в нашето трудово ежедневие. И то въпреки опасенията, че един ден със сигурност ще измести естествения „такъв“. Дефиницията на ИИ е проста – интелект, демонстриран от компютри, който проявява присъщи за хората способности – творчество, учене, разсъждаване, анализиране и пр.  

Погледнато от философска гледна точка, прави са били мислителите, когато влизали в спорове и дискусии относно същността на интелекта. С други думи не са намерили “абсолютната истина”. Но стига толкова с философията, все пак живеем в света на технологиите.

ii v obrazovanieto

През последните дни се появиха примери, чието съдържание не може да се определи като напълно позитивно. Фалшифицирането

на касови бележки, лични карти и генерирането на стотици милиони изображения,

вече се превърна в „тренд”.

Повод за някакво спокойствие са думите на Марк Твен: „Ние научаваме за хората по сърцето, а не по очите или интелекта!“ Сърцето, присъщо само за човека и животните. Какво ли тогава остава за ИИ?

Примерите, които дадох горе за касовите бележки и личните карти ще си кажат някои, че не са толкова съществени, нали има система за проверка? Да така е, има, но до колко е ефикасна тя.

При случая с личната карта, създадена от ChatGPT, се е стигнало дотам, че е могъл да премине успешно цифров контрол на самоличността. Единственото, което е могло да направят професионалистите, е било да се хванат за главите. Нали нямаше опасност преди това да се случи. А какво ще стане в България, ако

случаят с изтичането на личните данни на милиони българи се повтори и потрети?

Просто… не ми се мисли, но да се върнем на темата.

В нашия случай само за няколко минути, технологичният предприемач Борис Муселяк е успял да генерира документа, едно към едно с истинския. Лесно, бързо и успешно…

Хубаво е да се спомене, че личната карта няма да може да премине проверка, поради липса на вграден чип, но ще може да се възползва за финансови услуги (Revolut), понеже единственото, което се изисква там е снимка. Перфектно средство за измамниците.

В отговор на проблема, експерти предлагат да въведат по-активно прилагане на методи за проверка като NFC (набор от мрежови протоколи за безжична комуникация между две устройства).

Интересно е, че само 16 часа след публикацията в социалните мрежи

ii lichna karta mente

на генерираната лична карта-менте, ChatGPT отказва да създава документи.

Явно този път се е съобразил с алгоритмите, дадени му от естествения интелект, но защо не го е направил и при първия път?.

Какво може да заключим от тази случка? Реакциите се проявяват с доза закъснение, а ИИ доказа колко бързо може да се превърне в разхищение.

Преди да се стигне до случая с личната карта, всичко тръгна от една безобидна касова бележка или поне на пръв поглед беше такава. Новата версия на ChatGPT има възможност да създава все по-достоверни изображения. Ето откъде са започнали схемаджиите да се интересуват от функциите на ИИ.

Днес е касова бележка, утре е лична карта, вдругиден… нотариално заверено завещание, с което

„упълномощеният наследник“ получава наследство в размер на… 100 милиона евро.

Все пак примери – особено с имотната мафия – в България бол. И то не от вчера или от миналата година, а от… пукването на демокрацията у нас, т.е. от 10 ноември 1989 година.

Новите технологии предоставят асортимент от варианти, като ги съобразяват с нуждите на потребителя, независимо кой е той. Все пак работим според нуждите на клиента. Тук идва и проблемът… Изкуственият интелект не го интересува дали някой е с чисто съдебно минало, или не. Най-малкото не обръща внимание с какви цели се използва, особено във времена на информационна война. Той стриктно спазва зададената му команда от неговия лидер (примери в световната история за такива личности също много, но не е тук мястото).

Говорителят на компанията OpenAI е на друго мнение. Според него творческата свобода е на първо място, а всичко може да се използва с благородна цел. То хубаво, но се споделя само от едната страна…, а какво остава за другата. Разбира се, трябва да си дадем ясна сметка, че производителят няма да каже нещо лошо за продукта си. Но е задължително да се начертае

ясна граница между творчеството и измамата, за да не се подвежда клиентът.

Сложността на проблема изисква ясен контрол – правна рамка, която за съжаление може да се създаде само на регионално ниво. Такъв е ЕС, от който и България е част.

Горепосочените примери не са единствени. Ситуацията с Studio Ghibli и ChatGPT, които наводниха интернет пространството с т. нар. “нова мода”, повдигнаха въпроса с авторските права. Голямото количество на генерирани снимки привлече вниманието на артисти и правозащитници, които искат защитата на техните плодове на вдъхновението.

Законът на ЕС за прилагането на изкуствения интелект, се опитва да защити правата на обществото, хармонизирани с Хартата на основните права на ЕС.  Въпреки това не винаги се получава, както стана ясно. Защо тогава са нужни тези закони?

ИИ носи със себе си определена доза риск и не може да се гарантира напълно, че

кибератаките и киберпрестъпленията ще престанат.

Това обаче, което се гарантира, е подход основан на риска, което (засега, де) е по-добре от нищо.

Рискът се квалифицира в 4 нива:

1) неприемлив риск;

2) висок риск;

3) риск за прозрачността;

4) минимален или никакъв риск.

Няма да обяснявам формулировката на всеки един от тях, защото тя е доста широка. Това, което трябва да се спомене е следното – след като

дадена система с ИИ бъде пусната на пазара, веднага минава под човешки контрол.

И в положителния, и в отрицателния смисъл…

Законът вече е влязъл в сила (от 1 август 2024) и ще се прилага в рамките на две години до 2 август 2026 година.

viber izobrazhenie 2025 04 05 19 00 23 499

Статистиката, от своя страна, e доста важна, тъй като показва скок в използването на ИИ:

  • През 2024 г. 13.5% от предприятията в ЕС с 10 или повече служители са използвали технологии за изкуствен интелект. Ръст с 5.5% спрямо 2023 година.
  • Най-висок дял на тези предприятия е в Дания (27.6%), Швеция (25.1%) и Белгия (24.7 на сто). На другия край са Румъния (3.1%), Полша (5.9%) и България (6.5 процента).
  • Най-използваната AI технология е извършването на анализ на писмен език (виж диаграмата).
viber izobrazhenie 2025 04 05 19 00 37 158

Темата за изкуствения интелект е толкова широка, че трябва да се ограничи в някакви параметри, както и трябва да се постави ясна рамка на законодателството с ИИ. Това, което може да се каже в допълнение е, че никой не е застрахован от изобретенията на човека.

Всеки гледа с лошо око на новото и до някаква степен е прав,

защото… много зависи въпросното ново изобретение в какви ръце ще попадне.

Способността на ИИ да размишлява, оценява, създава и пр., са присъщи и на човека. Според начина, по който той е използван, везните могат да се наклонят в една или в друга посока, но никога не трябва да се измества естественият ход.

Поне така е формулирано в трите закона на роботиката и Айзък Азимов (дай, Боже!) да се окаже прав: “Роботът не може да навреди на човешко същество…” Но само при едно условие – ако човечеството не се окаже механичен сбор от мазохисти, които да направят така, че изкуственият интелект да получи точно такава възможност.

Facebook
Twitter
LinkedIn
Telegram
WhatsApp

Още от категорията..

Последни новини

Смятате ли, че ваксината срещу менингококи трябва да стане задължителна?

Подкаст