Реална ли е опасността машината да подчини човека?

Бумът в развитието на изкуствения интелект предизвика сериозни притеснения в цял свят. Опасенията са, че тази технология се самоусъвършенства всяка секунда и много скоро ще стане толкова умна и креативна, че ще започне да управлява дори собствените си създатели. Като остави без работа по-интелигентната и грамотна не половина от човешката популация.

До неотдавна това бяха сюжетна линия, разработвана от най-големите майстори на научната фантастика и антиутопичните трилъри. Досущ като в приказката, че никой не е пророк в собственото си село, тези творци бяха подлагани на унищожителни критики от страна на истинските учени.

От известно време обаче реалната наука,

явно „чопнала“ най-рационалното от фантастиката,

вече мълчи по въпроса. И… усилено бачка в полза на най-кошмарните видения, родени от болните холивудски фантазии: машините поробват човешката раса и я превръщат в източник на енергия.

Дори непоправимият ексцентрик Илон Мъск, който фанатично вярва в напредъка на технологиите, смята, че ако не бъде овладян навреме, изкуственият интелект

има реален шанс да унищожи нашата цивилизация,

Технологията вече е доста напреднала. В изкуствения интелект невронните мрежи са системи, които са подобни на човешкия мозък по начина, по който усвояват и обработват информацията, затова ИИ да се учи от опита си, както би го направил човек.

Последното доказателство за големия напредък е изложението „ВиваТех“ в Париж, където посетителите могат да задават въпроси

на изкуствен интелект, сгушен зад лицето на Ван Гог.

Образът говори с нидерландски акцент, защото художникът е от Амстердам.

Посетителите участват в чатбота със слушалки на ушите и просто натискат бутон, за да зададат въпрос. Пред тях се появява 3D лицето на художника, което им отговаря. Най-често задаваният въпрос към него е защо си е отрязал ухото.

„Отрязах си лявото ухо, когато страдах от силни душевни терзания и депресия. Останах без работата, когато бях на 23 години, на 26 години – трудно намерих призванието си и не успях да си направя ателие в Арл“, отговаря художникът в слушалките и с помощта на субтитри под лицето си.

Известният лингвист

Ноам Чомски пък попита ChatGPT4

дали липсата на отношение към морала у него е неморална.

Изненадващо, изкуственият интелект отвръща: „Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи“.

Според Чомски този отговор е крайно смущаващ, защото наподобява баналността на злото и неговото класическо оправдание „Аз само изпълнявах нареждания“.

Думите му се потвърждават и от един корифей на изкуствения интелект – Джефри Хинтън. Той дори напусна „Гугъл“, за да може

публично и безболезнено да коментира бъдещето на ИИ.

Според него новата технология може да се превърне в опасност. Засега програмите с изкуствен интелект все още не са по-интелигентни от хората, но съвсем скоро и това ще се случи. Причината е, че ожесточената конкуренция кара технологичните компании да разработват все по-нов и все по-усъвършенстван изкуствен интелект, който… съвсем спокойно може да бъде купен и използван от злонамерени диктаторски режими и престъпни групировки. Или, ако не бъде продаден доброволно,

да бъде откраднат от хакери и пуснат на черния пазар.

За всички е ясно, че напредъкът на технологиите не може да бъде спрян, но би трябвало рисковете да бъдат сведени до минимум. Един от начините е превантивното създаване на регулации, които да бъдат задължителни за големите компании разработчици.

Миналата седмица Европейският парламент прие преговорната си позиция по Законодателния акт за изкуствен интелект и сега се очакват преговорите с държавите от блока за окончателния вариант на закона.

Правилата целят да защитят „правата на хората, необходимостта от човешки надзор, безопасността, неприкосновеността на личния живот, прозрачността, недискриминацията и добрите социални и екологични условия“.

Предвижда се

да бъдат забранени системите с ИИ с неприемливо ниво на риск

за безопасността на хората, като тези, използвани за социално оценяване. Тоест – класифициране на хора въз основа на тяхното социално поведение или на личните им характеристики.

Ще бъде забранено и използването на системи за дистанционна биометрична идентификация в реално време в публично достъпни пространства; на системи за биометрична категоризация, използващи чувствителни характеристики (напр. пол, раса, етническа принадлежност, гражданство, религия, политическа ориентация); на „профайлърски“  системи за прогнозиране на потенциални престъпления въз основа на местоположение, съдебно минало и полицейски регистрации.

Използването на изкуствен интелект при

управлението на границите, на работното място

и в образователните институции също ще бъде забранено!

На финансови и „други“ санкции ще подлежи и използването на снимки от интернет или записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица. Всички тези „неща“ се смятат за нарушаване на човешките права и правото на неприкосновеност на личния живот.

Не може, а и не бива, да се отричат огромните ползи от тази технология на всички нива. Трябва обаче да се гарантира, че мощните системи за изкуствен интелект се разработват под гаранция, че въздействието им е положително, а рисковете – управляеми.

Facebook
Twitter
LinkedIn
Telegram
WhatsApp

Още от категорията..

Последни новини

Увеличението на цените през последните месеци създава ли финансови затруднения за вас?

Подкаст