Бумът в развитието на изкуствения интелект предизвика сериозни притеснения в цял свят. Опасенията са, че тази технология се самоусъвършенства всяка секунда и много скоро ще стане толкова умна и креативна, че ще започне да управлява дори собствените си създатели. Като остави без работа по-интелигентната и грамотна не половина от човешката популация.
До неотдавна това бяха сюжетна линия, разработвана от най-големите майстори на научната фантастика и антиутопичните трилъри. Досущ като в приказката, че никой не е пророк в собственото си село, тези творци бяха подлагани на унищожителни критики от страна на истинските учени.
От известно време обаче реалната наука,
явно „чопнала“ най-рационалното от фантастиката,
вече мълчи по въпроса. И… усилено бачка в полза на най-кошмарните видения, родени от болните холивудски фантазии: машините поробват човешката раса и я превръщат в източник на енергия.
Дори непоправимият ексцентрик Илон Мъск, който фанатично вярва в напредъка на технологиите, смята, че ако не бъде овладян навреме, изкуственият интелект
има реален шанс да унищожи нашата цивилизация,
Технологията вече е доста напреднала. В изкуствения интелект невронните мрежи са системи, които са подобни на човешкия мозък по начина, по който усвояват и обработват информацията, затова ИИ да се учи от опита си, както би го направил човек.
Последното доказателство за големия напредък е изложението „ВиваТех“ в Париж, където посетителите могат да задават въпроси
на изкуствен интелект, сгушен зад лицето на Ван Гог.
Образът говори с нидерландски акцент, защото художникът е от Амстердам.
Посетителите участват в чатбота със слушалки на ушите и просто натискат бутон, за да зададат въпрос. Пред тях се появява 3D лицето на художника, което им отговаря. Най-често задаваният въпрос към него е защо си е отрязал ухото.
„Отрязах си лявото ухо, когато страдах от силни душевни терзания и депресия. Останах без работата, когато бях на 23 години, на 26 години – трудно намерих призванието си и не успях да си направя ателие в Арл“, отговаря художникът в слушалките и с помощта на субтитри под лицето си.
Известният лингвист
Ноам Чомски пък попита ChatGPT4
дали липсата на отношение към морала у него е неморална.
Изненадващо, изкуственият интелект отвръща: „Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи“.
Според Чомски този отговор е крайно смущаващ, защото наподобява баналността на злото и неговото класическо оправдание „Аз само изпълнявах нареждания“.
Думите му се потвърждават и от един корифей на изкуствения интелект – Джефри Хинтън. Той дори напусна „Гугъл“, за да може
публично и безболезнено да коментира бъдещето на ИИ.
Според него новата технология може да се превърне в опасност. Засега програмите с изкуствен интелект все още не са по-интелигентни от хората, но съвсем скоро и това ще се случи. Причината е, че ожесточената конкуренция кара технологичните компании да разработват все по-нов и все по-усъвършенстван изкуствен интелект, който… съвсем спокойно може да бъде купен и използван от злонамерени диктаторски режими и престъпни групировки. Или, ако не бъде продаден доброволно,
да бъде откраднат от хакери и пуснат на черния пазар.
За всички е ясно, че напредъкът на технологиите не може да бъде спрян, но би трябвало рисковете да бъдат сведени до минимум. Един от начините е превантивното създаване на регулации, които да бъдат задължителни за големите компании разработчици.
Миналата седмица Европейският парламент прие преговорната си позиция по Законодателния акт за изкуствен интелект и сега се очакват преговорите с държавите от блока за окончателния вариант на закона.
Правилата целят да защитят „правата на хората, необходимостта от човешки надзор, безопасността, неприкосновеността на личния живот, прозрачността, недискриминацията и добрите социални и екологични условия“.
Предвижда се
да бъдат забранени системите с ИИ с неприемливо ниво на риск
за безопасността на хората, като тези, използвани за социално оценяване. Тоест – класифициране на хора въз основа на тяхното социално поведение или на личните им характеристики.
Ще бъде забранено и използването на системи за дистанционна биометрична идентификация в реално време в публично достъпни пространства; на системи за биометрична категоризация, използващи чувствителни характеристики (напр. пол, раса, етническа принадлежност, гражданство, религия, политическа ориентация); на „профайлърски“ системи за прогнозиране на потенциални престъпления въз основа на местоположение, съдебно минало и полицейски регистрации.
Използването на изкуствен интелект при
управлението на границите, на работното място
и в образователните институции също ще бъде забранено!
На финансови и „други“ санкции ще подлежи и използването на снимки от интернет или записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица. Всички тези „неща“ се смятат за нарушаване на човешките права и правото на неприкосновеност на личния живот.
Не може, а и не бива, да се отричат огромните ползи от тази технология на всички нива. Трябва обаче да се гарантира, че мощните системи за изкуствен интелект се разработват под гаранция, че въздействието им е положително, а рисковете – управляеми.















