Појава ChatGPT платформе крајем 2022. године је тему вештачке интелигенције (Artificial Intelligence), њеног утицаја на друштво и пројекције њених крајњих домета лансирала у сам центар светске пажње (уколико искључимо сукоб у Украјини који је једина учесталија медијска тема). Важно је, међутим, приметити да проблематика вештачке интелигенције и није тако нова јер за њу у основном облику знамо низ година уназад – шаховске апликације су класичан пример. Оно што јесте ново је драстичан напредак који је постигнут у последњој деценији. A нове су и етичке дилеме које је тај напредак отворио.
Експоненцијални развој технологија вештачке интелигенције, нажалост, нису отпратили и адекватни механизми контроле, због чега се већ сада очајнички траже нове стратегије. Да бисмо схватили ту врсту експоненцијалног развоја, најбоље да се осврнемо на напред поменуте шаховске апликације. Наиме, све до средине 90-тих година прошлог века рачунари нису имали велике шансе у двобоју са врхунским велемајсторима и светским шаховским шампионима. Прекретница се десила 1996. година када је IBM-ов суперрачунар Deep Blue победио Гарија Каспарова у две од четири партије шаха (Каспаров је у укупном скору те године био победник, да би наредне и на нивоу меча био поражен). У међувремену су се појавили унапређени шаховски програми засновани на „дубоком учењу“ (какви су Stockfish и AlphaZero) чије су најновије верзије толико јаке да су шансе било ког шаховског велемајстора против њих сведене на неколико процената, а можда и мање.
Уколико причу о вештачкој интелигенцији и њеном стреловитом развоју поставимо начелно, онда се одмах поставља и питање етичких дилема. За почетак те приче, поменуо бих свој пут до Свете горе пре неколико година. На пут сам ишао са својим пријатељем који је, том приликом, предложио да вози својим аутомобилом и да ми уједно покаже докле је стигла примена вештачке интелигенције у аутомобилској индустрији. Када смо прошли Солун, на делу где је аутопут био довољно широк, лепо означен и квалитетно урађен, он је на командној табли свог state of the art аутомобила унео одређене параметре: просечну брзину вожње, максималну брзину вожње, минималну удаљеност од наредног аутомобила и томе слично, а потом је пустио волан из руку, склонио стопала са папучица за гас и кочницу, и позвао ме да пажљиво отпратим како изгледа аутоматизовано путовање. Заиста, рачунар аутомобила је помоћу камера у реалном времену интерполирао путању, брзину аутомобила, моменте кочења и све остало, на начин који је био запрепашћујуће прецизан, а за путнике угодан. Пријатељ ми је тада објаснио да ће то бити будућност аутомобилске индустрије, али да још увек постоје препреке које нису технолошке, већ етичке. Навео је једну конкретну ситуацију: ако се током вожње испред аутомобила нађе пешак, а са обе стране пута је нека препрека (стена, рецимо), ниједан алгоритам не може да реши ту ситуацију јер треба да чува и живот возача и животе других учесника у саобраћају. Овај једноставан пример говори о томе да примена вештачке интелигенције, која је у протеклих пола године у невиђеном успону, отвара низ озбиљних етичких питања која тек чекају на своје решавање.
У време када сам водио Центар за проучавање и употребу савремених технологија СПЦ (од 2008-2015. године), на основу ранијих промишљања светски познатих истраживача технологије и делом на основу сопственог искуства које сам стекао на овом пољу, предложио сам коришћење једне једноставне, али прилично ефикасне методологије за испитивање техношких решења и њихових друштвених импликација. Назвао сам је методологијом троструког кључа (или 3К методологијом), по почетном слову сваког од три појединачна нивоа које је потребно прећи у испитивању. У питању су критички, контекстуални и концептуални ниво анализе, којима се свако технолошко решење испитује из три различита, али повезана аспекта. Покушаћу да применом те методологије укратко идентификујем изазове које вештачка интелигенција доноси у наш живот.
Кренимо од критичког нивоа разматрања, што је домен који велики број људи деценијама уназад узима у обзир, сводећи своју анализу на класичну pro et contra парадигму. У том домену се сагледавају добре и лоше стране неке технологије, које су углавном видљиве већ у време када је конкретна технологија доступна. Прво се поставља питање корисности употребе. У погледу вештачке интелигенције, могућности су неспорне – тешко је пронаћи област у којој се не могу уочити њене примене: индустрија, медицина, образовање, војска… Готово свака област људског рада има простора не само за унапређење постојећих активности употребом вештачке интелигенције, већ и за потпуно нове начине достизања циљева, повећања прецизности, проширења домета. У том смислу, користи од контролисане употребе вештачке интелигенције су несумњиве. Лично, мишљења сам да је она посебно погодна у домену нехуманих послова које човек, нажалост, још увек обавља: рудници, тешко приступачни и небезбедни објекти, контаминиране зоне, тешки, понављајући и заморни послови који оштећују човеково здравље…. То прави су „кандидати“ да их у будућности уместо човака обављају роботи базирани на вештачкој интелигенцији. У тај скуп спадају и послови који штетно утичу на психолошко здравље човека.
Притом, постоје и они послови који су потпуно резервисани за човека, али у којима би додатна помоћ вештачке интелигенције била значајна у смислу да би олакшала и убрзала рад. Навешћу један једноставан пример из сопственог искуства. Недавно сам објавио књигу о Николи Тесли, у којој сам се потрудио да на што историјски веродостојнији и објективнији начин прикажем лик генијалног проналазача. Вероватно је најтежи део истраживачког поступка током рада на тој књизи био ичшитавање Теслиних писама, поготово оних која је писао у брзини и у нешто познијем периоду, када му се искварио рукопис пошто је доживео тежак нервни слом. Укупно сам прошао неколико хиљада страница преписке, а међу тим документима је било и Теслиних концепата писама која је писао руком. За њих је било потребно одвојити доста времена, пошто је поступак ишчитавања и дешифровања је био јако заморан (поготово стога што су концепти углавном писани оловком). У том смислу, вештачка интелигенција би вишеструко убрзала поступак ишчитавања рукописа тих нечитких писама, не само упоређивањем са графемама које би поседовала у својој бази података (на основу Теслиног рукописа), већ и математичком анализом која би обухватала упаривање са више стотина хиљада речи и реченичних конструкција.
На овом нивоу опсервације, поред нових могућности и унапређења старих, поставља се и питање негативних импликација вештачке интелигенције. И оне су већ сада видљиве и нису ништа мање значајне. Већ на овом првом, критичком нивоу опсервације се постављају озбиљна етичка питања. Примера ради, шта ће бити са милионима радника када не само читаве производне хале, већ и читаве професије буду замењене вештачком интелигенцијом? Недавно ми је мој графички уредник изнео процену да ће за пет година његов посао практично нестати и да ће у овом облику бити потпуно замењен вештачком интелигенцијом. У том смислу, поставља се још једно питање: који ће бити утицај на људску креативност с обзиром на могућност аутоматизованог креирања свега и свачега, од читавих есеја преко сложених табеларних приказа све до уметничких дела? И какав ће бити утицај на атрофирање људске интелигенције, с обзиром да ће она бити све више ослоњена на вештачку? Безбедносна питања су већ проблем сам за себе. Како решити сложене ситуације из праксе у којима ће компјутерски алгоритам морати да доноси одлуке које имају последице по људске животе? Какве ће последице имати могућност најновијих система који могу да генеришу потпуно измишљен звучни запис, фотографије и видео секвенце, које је тешко разликовати од стварних? Ово је само врх леденог брега етичких питања која се сваког дана увећавају оном истом експоненцијалном брзином којом вештачка интелигенција доживљава свој развој.
Гледано из овог критичког угла, неке владе су већ реаговале, а неке се спремају да донесу низ регулатива. Једна од таквих је недавно ушла у процедуру на нивоу Европске Уније, у оквиру које су регулисани системи за биометријско препознавање лица засновани на камерама затвореног кола (CCTV) тако што неће смети да имају могућност аутоматског препознавања идентитета и процене емоција. Упоредо са том иницијативом, недавно је група конгресмена у САД проследила предлог да се законски забрани могућност да вештачка интелигенција доноси одлуке у погледу нуклеарног напада или контраудара. Све то говори да је могућности који вештачка интелигенција доноси потребно уоквирити јасном законском регулативом која би већ сада јасно ограничила њену примену.
Верујем да свако ко иоле размишља својом главом подржава напор да се ова област правно-технички регулише. Прецизна законска решења која би подржала корисну употребу вештачке интелигенције, санкционисала злоупотребу и поставила границе у развоју и коришћењу – то би, у основи, био кључни закључак критичког нивоа опсервације, уз потребу за стимулисањем јавне размене мишљења и критичког дискурса када је реч о потрази за најбољим решењима и разматрању етичких изазова у овој (још увек) правно недовољно уређеној области.
Контекстуални ниво је нешто сложенији за разматрање. Он подразумева да се поред класичног испитивања технологије мора у обзир узети и друштвени оквир у коме се нека технологија имплементира. Ово је као посебну потребу својевремено нагласио аустралијски професор Роџер Кларк, један од чувених истраживача из области примене технологије и њеног утицаја на друштво. Какав је глобални друштвени контекст у тренутку када вештачка интелигенција врши свој стреловити продор у савремено друштво? Он је одређен са три веома сложена процеса који уводе тектонске поремећаје у свет какав познајемо. Први је ратни сукоб у Украјини, који је постао полигон за испитивање најновијег наоружања, у коме дронови засновани на вештачкој интелигенцији играју велику улогу. Други важан контекстуални моменат је геополитичка трка између САД и Кине. Налазимо се у финалном делу те трке, чији ће коначни расплет бити отприлике у наредних десет година, што може довести до прерасподеле моћи на светском нивоу и пребацивања војно-политичког и економског тежишта са Запада на Исток. У таквом контексту, вештачка интелигенција је веома важан фактор геополитичког одмеравања и нема никакве сумње да ниједна страна неће одустати од таквог адута. Већ сада се може претпоставити да ће и друге земље света улагати огромна новчана средства и људске ресурсе у развој вештачке интелигенције, и то пре свега на војном плану, не обазирући се много на етичке импликације, будући да сукоб који тиња на глобалном нивоу диктира неке друге приоритете. И трећи важан контекстуални моменат је тржишни рат гиганата корпоративног IT сектора и ништа мање сурова конкуренција на другим пољима глобалног тржишног спектра. Ни једног тренутка не треба сумњати у то да водеће светске компаније ни по коју цену неће допустити да им измакне из руке један овако моћан механизам, будући да би то значило губитак компаративних предности. У тој врсти одмеравања профит је тај диктира акцију – корпоративни сектор ће на глобалном нивоу несумњиво искористити вештачку интелигенцију у пуном обиму за остваривање својих циљева.
Идеја регулације ове области на глобалном нивоу је због свега претходно наведеног веома сложен (ако не и немогућ) задатак, гледано из призме контекстуалног кључа. То је прилично забрињавајућа ситуација јер све помало личи на класичну џунглу и њена правила. Ипак, постоји једна охрабрујућа ствар која колико-толико може допринети проналажењу некаквог решења. Реч је о томе да ће и у геополитичком војном одмеравању и у жестокој корпоративној трци, свака страна желети да искористи вештачку интелигенцију, али да ниједна неће хтети да изгуби контролу над њом нити да пружи вештачкој интелигенцији могућност да моћ којим случајем „заграби“ аутономно. Циљ такмаца на светском нивоу јесте да постигну предност у односу на друге конкуренте, али не и да је предају машинама.
Центрима светске моћи spiritus movens није алтруизам и филантропија, већ искључиво голи интереси и сурова борба за опстанак. Са друге стране, постоји довољно простора да се направе макар неки регулаторни механизми који би били у интересу свих и омогућили да ситуација не измакне контроли, јер би се то на крају окренуло и против свих структура моћи. У овом домену, мислим да је најбоље користити логику која постоји код међународних процедура које се користе за забрану ширења знања и технологија (know how) потребних за производњу нуклеарног наоружања ван такозваног нуклеарног клуба. Тај механизам је утврђен због опште користи и безбедности свих, па тако и нуклеарних сила, јер ником није у интересу да се изгуби контрола над нуклеаркама. Мислим да ће у случају војне технологије која би укључивала вештачку интелигенцију тако нешто бити неопходно, у смислу да се на нивоу УН (или можда у оквиру Савета безбедности) формира посебно тело које би се само тиме бавило – у којој мери би оно било ефикасно, друго је питање које излази ван опсега овог осврта. Дакле, контекстуални ниво нам открива препреке за регулацију ове области на светском нивоу, али неизоставно истиче да је за решавање етичких дилема неопходна међудржавна сарадња, по угледу на ону која одавно постоји када је реч о нуклеарном наоружању.
И трећи, по мени најважнији, јесте концептуални ниво који нам даје дубинско сагледавање проблематике о којој је реч, да бисмо уочили саму срж конкретне технологије и да бисмо се према њој одредили што обухватније. На концептуалном нивоу се поставља питање дубинског устројства неког технолошког решења, његове концептуалне ширине, могућности да у будућности прерасте у нешто друго и томе слично. Овде је, пре самог одређивања концептуалног оквира, потребно поменути два основна питања која се постављањају у савременом философском дискурсу разматрања технологије као такве. Та два питања су такозвана вредносна неутралност технологије (у смислу питања постојања евентуално „уписаних“ циљева приликом њене конструкције) и аутономија у развоју технологије (у смислу питања постојања човекове могућности да усмерава њен даљи ток и развој). Та два питања су годинама уназад устаљен оквир у коме се размењују мишљења међу људима који се баве теоријским разматрањем технологије. Екстремни пример на коме се види колико је важно постављати таква питања је управо малочас поменуто нуклеарно наоружање, чија уско постављена концепција и разорна моћ која не бира мету не оставља никаквог простора да га упоређујемо са простим оружјима, а још мање са обичним вредносно неутралним алатима попут чекића и ножа – једини прави начин употребе нуклеарног оружја јесте да се оно уопште не употреби.
Да ли је концепт вештачке интелигенције вредносно неутралан? Лично мислим да није због начина на који су савремени системи вештачке интелигенције формирани, усмерени и функционишу. Наиме, термин „вештачка интелигенција“ може мало да завара, јер уводи претпоставку да је машина потпуно неутрална у одлучивању и да нема претходно уписане циљеве (по угледу на класичан хардвер, рецимо). Но када је реч о вештачкој интелигенцији, систем је већ „обучен“ на основу тачно одређеног сета података (које је и креирао и селектовао човек) и пуштен је да самостално „ради“ и креира нове податке на основу старих и да се тако „усавршава“, чиме му је у основи сасвим недвосмислено дато усмерење, али и модалитет употребе. Дакле, вештачку интелигенцију не само да је створио човек, већ јој је и обезбедио улазне податке и модел њихове обраде, при чему је цео систем у једној фази „самогенеришући“ у погледу података и логике рада и има одређени, претходно дефинисан, степен аутономије у одлучивању и у самосталном испуњењу неког циља.
Притом, треба истаћи да аутономија у одлучивању система вештачке интелигенције није исто што и аутономија у њеном развоју, пошто се ова потоња односи на то да ли се технологија вештачке интелигенције самостално развија у мери да човек нема могућност (пре)усмеравања њеног даљег тока. У овом погледу се већ дуже време говори о могућности достизања технолошке сингуларности, односно пројектоване тачке историје у којој ће настати „мислеће машине“ које би, сликовито речено, самостално и аутономно стварале друге машине, независно од људског уплитања. Лично се не слажем песимистима који сматрају да ће вештачка технологија у једном тренутку историје заменити, а потом и уништити људску врсту. Такво суморно предвиђање ми као хришћанину није прихватљиво, због антрополошког оптимизма моје вере и због наде у промисаоно дејство Божије у овом свету, које путем нестворених енергија одржава цео универзум у постојању. Верујем, стога, да ће у човековим рукама увек остати одређени степен контроле – чак и уколико се достигне степен сингуларитета, убеђен сам да ће човек имати и слободу и начин да заустави машине уколико то буде било неопходно. Но свакако треба радити на томе да технологија вештачке интелигенције буде под што бољом контролом већ сада, да би се избегли сценарији који би довели до угрожавања наше безбедности.
Оно што сматрам далеко извеснијим изазовом и забрињавајућим трендом који се може приметити из концептуалне перспективе јесте идеја споја човека и машине, у виду својеврсне „роботизације“. Иза свега, заправо, стоји наметљива промоција идеологије трансхуманизма путем литературе, медија, предавања. Мишљења сам да ће главни етички изазов у будућности бити везан управо за покушај трансформисања човека у некаквог техно-надчовека. Вештачка интелигенција ће, сасвим сигурно, у једном тренутку отворити могућност до сада невиђеног споја човека и машине у виду класичног хибрида. Та могућност ће се, највероватније, промовисати пре свега под паролом побољшања човекових способности, квалитета живота и дуговечности. Притом, овде не мислим на медицинска решења попут пејсмејкера, већ на технолошке механизме који би имали могућност да утичу чак и на човекову вољу. Колико год да је такав сценарио језив за већину нас, несумњиво је да ће бити много оних који ће то подржати – спортистâ који би путем уграђене технологије у своје тело желели да остваре још боље резултате, научникâ који би путем уграђених биочип можданих импланта желели да мисле још брже и прецизније, уметникâ који би желели да технолошким побољшањем својих руку стварају још лепша дела…
Ту, међутим, није крај. Узевши у обзир трендове какав је Интернет ствари (Internet of Things), и Интернет људи (Internet of People), у блиској будућности можемо очекивати предлог парадигме у којој би људска бића била не само носиоци „паметних“ технологија са собом, већ и у себи, те би и сами постали међусобно повезани „токени“ уз медијацију вештачке интелигенције. Повезани, у сталној комуникацији, и подразумева се, надзорисани. А то значи и контролисани. У финалном степену, нажалост, и дискриминисани, уколико се не уклопе у постављену вредносну матрицу система у који би били увезани.
Због тога је важно већ сада на светском нивоу формирати конвенцију која би људима гарантовала право да живе без наметања трансхуманистичких концепата и да због таквог природног начина живота не буду дискриминисани. Уколико ствари буду ишле другим, ултимативним током, то би већ била класична тоталитарна парадигма, до сада невиђена у својим последицама. Зато сматрам да је питање наметања идеологије трансхуманизма кроз коришћење вештачке интелигенције заправо питање свих питања у етичком смислу у овој области, што се сасвим јасно види из концептуалне перспективе разматрања.
Да сумирам своје изглагање у неколико тачака, које се дају закључити из перспективе критичке, контекстуалне и концептуалне анализе методологије троструког кључа. За адекватан одговор на етичке изазове које доноси вештачка интелигенција, потребни су: а) константна јавна дебата, б) укључивање свих мислећих чланова друштва у осмишљавање адекватне стратегије, в) одређивање начелних граница вештачке интелигенције које се морају се поставити већ сада, да би се предупредили проблеми који нас могу сачекати већ сутра, г) неопходност редовног праћења развоја вештачке интелигенције и стално новелирање законских процедура, д) неопходност међународне сарадње и проналажења регулаторних механизама којима ће спречити неконтролисани развој и примена ове технологије и ђ) прецизне гаранције које би обезбедиле да у будућности нико неће бити дискриминисан зато што одбија да носи у себи било какав машински склоп.
Уколико је човечанство спремно да примени све наведено, верујем да ће ствари ићи добрим током. А уколико није… У том случају бих цитирао речи Мартина Хајдегера, навећег философа 20. века, који је отворио критички дискурс на пољу технологије. Хајдегер је у својим закључцима, нажалост, претерао и постао зачетник својеврсног технолошког песимизма и детерминизма, но свакако му треба одати признање за идеју да се према технологији морамо односити критички и подвижнички. У свом последњем интервјуу из 1966. године, Хајдегер је свој став о неконтролисаном напретку технологије преточио у једну једину потресну реченицу која гласи:
Nur noch ein Gott kann uns retten (Само нас Бог може спасити).
Ипак, лично гајим оптимизам у овом погледу и надам да ће позитивна страна приче о вештачкој интелигенцији превладати, те да ће људи успети да исконтролишу ову област и да ће је повести у правом смеру. Уз Божију помоћ, наравно.
*Текст је настао на основу истоименог предавања одржаног у Матици српској 31. маја 2023. године.