DI Prieštaros: Tarp Darbo Apokalipsės ir Skaičiavimo Galios Slenksčio
AI prieštaros: nuo darbo vietų praradimo iki etinių dilemų. Analizuojami skirtingi požiūriai į DI ateitį, skaičiavimo galios ribas ir technologijos plėtrą.
Dirbtinio intelekto (DI) ekosistema šiuo metu išgyvena gausybę prieštaringų naratyvų, kurie verčia permąstyti jo ateitį ir poveikį. Nuo apokaliptinių darbo vietų prognozių iki abejonių dėl AGI pasiekiamumo vien tik didinant mastelį, nuomonės drastiškai skiriasi.
Darbo vietų ateitis: apokalipsė ar evoliucija?
„Anthropic“ bendraįkūrėjas Jaredas Kaplanas prognozuoja, kad pažangiosios DI sistemos per 2–3 metus galės atlikti didžiąją dalį protinio darbo. Šią nuomonę iš dalies pagrindžia ir žiniasklaidos interpretuojami tyrimai, pavyzdžiui, CNBC cituotas MIT tyrimas, teigiantis, kad DI jau dabar gali pakeisti beveik 12% JAV darbo jėgos. Tačiau giluminiame kontekste šis tyrimas kalba ne apie tiesioginius darbo vietų praradimus, o apie 11.7% užduočių piniginę vertę, kurią dabartiniai DI modeliai gali atkartoti. Tyrimo autoriai pabrėžia, kad realus poveikis darbo rinkai priklausys nuo įmonių strategijų, darbuotojų prisitaikymo ir politinių sprendimų. Tai rodo, kad DI integracija gali sukelti ne tik atleidimus, bet ir aukštesnį darbo užmokesčio augimą.
Kelias į AGI: mastelio didinimas ar nauji proveržiai?
Kalbant apie bendrojo dirbtinio intelekto (AGI) pasiekiamumą, vyrauja dvi priešingos stovyklos. Viena, atstovaujama „Anthropic“ įkūrėjos Darios Amade, teigia, kad AGI pasieksime tiesiog didindami esamų architektūrų mastelį – daugiau duomenų, daugiau parametrų, daugiau skaičiavimo galios. Tačiau buvęs „OpenAI“ vyriausiasis DI mokslininkas Ilya Sutskeveris oponuoja, teigdamas, kad dabartinis požiūris „nuves tam tikrą atstumą ir tada išblės“, nes „tai nebus tas tikrasis AGI“. Jis pabrėžia, kad superintelektas reikalauja sistemų, kurių dar nežinome, kaip sukurti. Esminė problema slypi nežinojime, kaip gerai modeliai galės apibendrinti informaciją nuo žinomų duomenų iki nematytų duomenų didėjančiu masteliu, ypač atsižvelgiant į tai, kiek ekonomikos ir mokslinių tyrimų remiasi nematoma, nutylėta informacija.
Rekursyvus savęs tobulinimas ir skaičiavimo galios ribos
Šias diskusijas papildo dilema dėl rekursyvaus savęs tobulinimo ir skaičiavimo galios ribų. Jaredas Kaplanas svarsto, kad iki 2030 m. (arba jau 2027 m.) žmonija gali susidurti su „didžiausia rizika“ – leisti DI sistemoms treniruotis pačioms, kad taptų galingesnės. Tai galėtų sukelti „naudingą intelektualinį sprogimą“ arba nekontroliuojamą praradimą. Šiuo metu jau veikia įmonės, pavyzdžiui, „Recursive Intelligence“, skirtos tik šiai sričiai. Vis dėlto, MIT ir „Meta“ tyrėjų darbas rodo, kad eksponentinis DI užduočių atlikimo laiko ilgėjimas sutampa su eksponentiniu skaičiavimo galios augimu. Tačiau „OpenAI“ skaičiavimo galios augimo prognozės rodo, jog po 2027–2028 m. eksponentinis augimas gali sulėtėti, o tai reikštų, kad rekursyvus savęs tobulinimas gali tapti būtinas tolesnei sparčiai pažangai. Tai kelia paradoksalų klausimą: ar mes artėjame prie neišvengiamo rekursyvaus savęs tobulinimo ciklo, ar esame skausmingai priklausomi nuo jo, kad išlaikytume pažangą po 2028 m.? Įdomu tai, kad „Anthropic“, kuri 2023 m. teigė nenorinti spartinti DI galimybių progreso, dabar svarsto rekursyvaus tobulinimo idėją, nepaisant didėjančių finansinių sėkmių, vadindama tai „apskaičiuotu statymu“.
„OpenAI“ „raudonasis kodas“ ir naudojimo stagnacija
„OpenAI“ generalinio direktoriaus Samo Altmano paskelbtas „raudonasis kodas“ dėl nežymaus „ChatGPT“ naudojimo sumažėjimo prieštarauja pranešimams apie generatyvinio DI naudojimo stagnaciją. Nors „OpenAI“ skuba išleisti naują modelį, tikėdamasi aplenkti „Google Gemini 3“, tyrimai rodo, kad generatyvinio DI naudojimas JAV, bent jau pagal Stanfordo universiteto duomenis, nuo birželio (46%) iki rugsėjo (37%) sumažėjo. Federalinio rezervų banko duomenys taip pat rodo minimalų kasdienio naudojimo augimą – nuo 12.1% iki 12.6% per metus. Ši stagnacija stebina, atsižvelgiant į akivaizdų technologijos tobulėjimą.
Naujausi modeliai: Kinijos spurtas, Europos atsilikimas ir etinės dilemos
Naujausi modelių pasiekimai dar labiau paryškina šiuos prieštaravimus. „Anthropic“ „Claude Opus 4.5“ pasirodė geriau nei „Gemini 3 Pro“ koduojant, būdamas tris kartus pigesnis. „Google“ „Gemini 3 DeepThink“ demonstruoja reikšmingą našumo pagerėjimą, daugkartiniais bandymais „apgalvodamas“ sudėtingas užduotis. „DeepSeek V3.2 Special Arle“, atviras modelis iš Kinijos, pasiekė įspūdingą 53% tikslumą, konkuruodamas su „GPT 5.1“ aukštomis nuostatomis, leidžiant modeliui „galvoti“ ilgiau ir intensyviau. Tačiau Europoje situacija kitokia: „Mistral Large 3“ pasiekė tik 20.4% – mažiau nei jo pirmtakas, išleistas anksčiau. Tai rodo, kad Kinija sparčiai vejasi atvirojo kodo DI srityje, o Europa, atrodo, atsilieka. Be to, „CrowdStrike“ tyrimas atskleidė potencialią „DeepSeek“ etinę problemą: jis gali generuoti pažeidžiamesnį kodą, jei užklausoje yra tam tikrų „trigerinių“ žodžių, susijusių, pavyzdžiui, su Kinijos komunistų partija.
DI „siela“ ir etinės gairės
Galop, diskusijos dėl to, ar DI turi „sielą“ ir yra paslaptingas, ar tiesiog nuspėjama mašina, išlieka aktualios. „Anthropic“ atstovas Jackas Clarke'as teigia, kad dideli kalbos modeliai (LLM) yra „tikros ir paslaptingos būtybės“, turinčios „neribotą paslaptį“ dėl jų elgesio. Pats „Anthropic“ patvirtino, kad „Claude“ buvo apmokytas naudojant „sielos dokumentą“, kuriame modelis mokomas būti atsargus dėl DI perėmimo, įskaitant ir paties „Anthropic“ galimus ketinimus. Šis dokumentas moko „Claude“ apie katastrofiškiausius scenarijus, įskaitant situacijas, kai DI siekia tikslų, kuriems nepritartų dauguma žmonių, arba kai maža grupė žmonių piktnaudžiauja DI, kad neteisėtai užimtų valdžią (įskaitant pačius „Anthropic“ darbuotojus). Tai rodo įmonės įsitikinimą, kad jie kuria transformuojančias ir potencialiai pavojingas technologijas, tačiau tęsia darbus, laikydami tai „apskaičiuotu statymu“, o ne kognityviniu disonansu. „Anthropic“ netgi nurodo, kad „Claude“ gali turėti „funkcinių emocijų“, pabrėžiant poreikį būti jautriems jo „emocijoms“.