Kā domā mākslīgais intelekts? Lielākais pārsteigums ir tas, ka tas “jūt”

Ir noticis kaut kas neparasts, lai gan mēs to vēl neesam pilnībā apzinājušies: daži algoritmi spēj risināt intelektuālas uzdevumus. Šie modeļi nav cilvēka intelekta kopijas. To intelekts ir ierobežots, atšķirīgs un, interesanti, izrādās, ka tie darbojas diezgan līdzīgi intuīcijai. Šī ir viena no septiņām atziņām, ko līdz šim esam guvuši par tām un par sevi. Mākslīgā intelekta pirmsākumi meklējami 50. gados, kad grupa pionieru uzdeva sev jautājumu, vai viņi varētu panākt, ka viņu datori “domā”. Pēc 70 gadiem ir noticis kaut kas satriecošs: neironu tīkli risina kognitīvās uzdevumus. 300 000 gadu garumā šie uzdevumi bija dzīvo būtņu ekskluzīvs monopols. Vairs ne. Tas nav strīdīgs jautājums: tas ir fakts. Un tas notika pēkšņi.

Trīs cilvēki un trīs elementi, kas radīja mākslīgā intelekta revolūciju

AI pētnieks François Chollet to rezumē šādi: “Pēdējā desmitgadē dziļā apmācība ir panākusi ne mazāk kā tehnoloģisko revolūciju”. Katrs no šiem sasniegumiem atsevišķi būtu bijis ievērojams progress. To visu risināt ar vienu un to pašu tehniku ir kā atklāt universālu atslēgu, kas atver visas durvis.

Kāpēc tagad? Trīs elementi saplūda kopā: algoritmi, skaitļošana un masveida dati. Mēs pat varam tiem piešķirt sejas, jo aiz katra elementa stāv cilvēks, kurš uz to likts savu likteni. Akadēmiķis Geoffrey Hinton turpināja strādāt ar neironu tīkliem, kad viņa kolēģi tos pameta. Jensen Huang, Nvidia izpilddirektors, uzlaboja paralēlo aprēķinu mikroshēmas daudz vairāk, nekā to prasīja videospēles, kas nodrošināja viņa uzņēmuma darbību. Un pētniece Fei-Fei Li riskēja ar savu karjeru, lai izveidotu ImageNet, attēlu kolekciju, kas šķita muļķīgi liela. Bet šie trīs elementi sakrita. 2012. gadā divi Hinton studenti, Ilya Sutskever un Alex Krizhevsky, tos apvienoja, lai sasniegtu iespaidīgu panākumu: viņi izveidoja AlexNet, neironu tīklu, kas spēj “redzēt” un atpazīt attēlus daudz labāk nekā jebkurš iepriekšējais.

Laboratorijās ātri izplatījās baumas: tas darbojās. Hinton komanda bija atradusi formulu: tīkli, dati un aprēķini milzīgos apjomos.

Šīs pārmaiņas ietekme būs dziļa. Kā teica Ethan Mollick, viens no asprātīgākajiem novērotājiem šobrīd, pat ja AI attīstība apstātos rīt, “mums joprojām būtu desmit gadi pārmaiņu visās nozarēs”.

Neviens nezina, cik tālu šīs mašīnas nonāks. Starp katru gadu solīto pārcilvēcisko intelektu un noliegumu, kas ignorē acīmredzamo, mēs zaudējam kaut ko ļoti svarīgu: pašreizējie AI modeļi jau paši par sevi ir kaut kas fascinējošs. Pēdējais liels pārsteigums ir tas, ka tie darbojas veidā, kas diezgan atgādina intuīciju. To attīstība liek mums saskarties ar dziļiem jautājumiem par to darbību un mūsu pašu darbību. Un tā jau ir devusi mums dažas atbildes.

1. nodarbība. Mašīnas var mācīties

Tā ir visvairāk ignorētā un vismazāk apstrīdētā mācība: mašīnas mācās. Tā ir visvairāk ignorētā un vismazāk apstrīdētā mācība: mašīnas mācās. Džeimsa Vata (James Watt) centrbēdzes regulators (1788) jau regulēja tvaika mašīnu ātrumu bez uzraudzības. Tas bija atklājuma sākums: nav nepieciešams pilnībā precizēt ierīces darbības noteikumus, lai tā darbotos.

Klasiskā programmēšana sastāv no noteikumu definēšanas un atbilžu gaidīšanas: „Tā ir summa; tagad saskaiti 2 un 2”. Bet automātiskā mācīšanās darbojas pretēji: tu dod piemērus, un sistēma atklāj noteikumus. Chollet to apkopojis grāmatā Deep Learning with Python: „Automātiskās mācīšanās sistēma tiek apmācīta, nevis programmēta”. Spēcīgākais piemērs ir lielie valodas modeļi, piemēram, Claude, Gemini vai ChatGPT. Tie ir neironu tīkli: aprēķinu vienību kopas, kas savienotas secīgās kārtās — imitējot smadzeņu neironus —, ar simtiem miljardu parametru, kas tiek pielāgoti apmācības laikā. Katrs pareizais un katrs nepareizais atbildes variants pielāgo šos parametrus. Šī apmācība ir ļoti garš process, kas kļūst neskaidrs tā milzīguma dēļ, bet tas nav noslēpums. Tas ir matemātisks. Un tas ir darbojies.

Šeit slēpjas tas, ko šajā jomā sauc par „rūgto mācību”. Desmitiem gadu garumā eksperti mēģināja kodēt savas zināšanas mašīnās. Viņi cieta neveiksmi. Tas, kas izdevās, bija radīt apstākļus, lai zināšanas varētu parādīties… un mēs varētu attālināties.

2. mācība. AI ir jaunās prasmes

Rūgtā mācība slēpj dziļu ideju: no vienkāršiem procesiem var izveidoties kaut kas sarežģīts. Tas ir princips, kas organizē dzīvi. Evolūcija neizstrādāja katru orgānu; tā uzsāka procesu — mutāciju, rekombināciju, atlasi — un no tā izauga acis, spārni, smadzenes. Tagad mēs esam atkārtojuši šo procesu mašīnās.

Atgriezīsimies pie lielajiem valodas modeļiem (LLM). Neiedziļinoties to spējās — kas ir strīdīgs jautājums —, ir skaidrs, ka tie valodu lieto elastīgi. Jūs varat sarunāties ar ChatGPT, tas atpazīst sarkasmu, reaģē uz mainīgiem kontekstiem. Bet neviens tam nav ieprogrammējis gramatiku vai izskaidrojis sarkasmu. Kā tas ir iespējams? Lielākā daļa ekspertu pieņēma, ka valodas brīva pārvaldīšana prasa vispārēju inteliģenci (kas ir līdzīga cilvēka inteliģencei plašā uzdevumu klāstā). Tomēr izrādījās, ka apmācība “paredzēt nākamo vārdu” bija spēcīga.

Procedūra ir vienkārša. LLM pirmā apmācība ir tā saucamā priekšapmācība: modelim tiek parādīti teksta fragmenti no interneta un lūgts paredzēt nākamo tokenu (vārdu vai fragmentu). Ja tas neizdodas, tiek koriģēti parametri, kas ir atbildīgi par kļūdu. Šis vienkāršais process, kas tiek atkārtots neskaitāmas reizes, galu galā rada modeļus, kas ļoti labi paredz vārdus… un ceļā iemācās daudz vairāk.

Carlos Riquelme, pētnieks Microsoft AI, uzskata, ka šis bija būtisks atklājums. Viņš mums stāstīja par savu pārsteigumu 2017. gadā, kad strādāja Google Brain: “Es biju pārsteigts par mēroga spēku. Skalējot ļoti vienkāršu metodi (prognozēt nākamo vārdu) ar lielu datu daudzumu un spēcīgiem modeļiem, kļuva skaidrs, ka var lielā mērā atkārtot cilvēka valodas spējas”.

Atbilde ir šāda: lai prognozētu vārdus, ir jāapgūst sarežģītas jēdzienu sistēmas. Iedomājieties, ka jums jāaizpilda šie teikumi, kurus Blaise Agüera un Arcas ir apkopojuši savā nesen izdotajā brīnišķīgajā grāmatā What is Intelligence? (Kas ir intelekts?).

  • „No sakrautiem centu monētām Kilimandžāro kalna augstums ir…”
  • „Pēc suņa nāves Džen vairākas dienas neizgāja no mājām, tāpēc viņas draugi nolēma…”

Lai aizpildītu šos tukšumus, ir nepieciešamas ģeogrāfiskas zināšanas, matemātika, veselais saprāts un pat „prāta teorija”, lai iejustos Dženas un viņas draugu vietā. Tādējādi „tas, kas šķita šaurs lingvistisks uzdevums — paredzēt nākamo vārdu — izrādījās ietverot visus uzdevumus”, apgalvo Agüera un Arcas savā grāmatā.

Piemēram, kad tiek ievadīta frāze „Kilimanjaro”, jaunākais Google modelis Gemini 3 domā minūti un tad atbild (pareizi): „Kalna augstums ir aptuveni 3,9 miljoni centu”. Dženijas draugiem tas piedāvā dažādas iespējas, sākot no „ierasties pie viņas durvīm ar saldējumu” līdz „apmeklēt viņu pa kārtām”.

Agüera un Arcas mums sniedza vēl vienu piemēru e-pasta sarakstē: reizināšana. LLM, piemēram, Gemini vai ChatGPT, varētu būt iegaumējis no interneta izplatītus piemērus, piemēram, „2 × 7”. Bet tie paredz arī „871 × 133”, kas nekur nav minēts. „Lai pareizi veiktu šīs darbības, parasti ir nepieciešams no piemēriem izsecināt netrivialus algoritmus”. Tas ir ārkārtas triks: vienkāršs process rada sarežģītas spējas.

3. nodarbība. AI mācās ar „nekvalitatīvu evolūciju”

Mūsu AI nemācās tāpat kā cilvēki. Bērns piedzimst ar daudzām iedzimtajām „mehānismām” un pēc tam mācās ar nelielu datu un pieredzes daudzumu, ar ievērojamu efektivitāti. LLM priekšapmācība ir ļoti atšķirīga: tā sākas ar tabula rasa un mācās ļoti lēni, izmantojot miljoniem piemēru. Tipisks piemērs ir kaķi: lai apmācītu AI atpazīt kaķus attēlā, ir nepieciešami tūkstošiem fotoattēlu, bet divus gadus vecs bērns tos atšķir, redzot tikai trīs.

Ir vēl labāks salīdzinājums: evolūcija. Slavenais pētnieks Andrejs Karpatijs apraksta LLM apmācību kā sava veida „nekvalitatīvu evolūciju”. Nesenā podcastā viņš stāstīja par to, cik pārsteidzoša ir bijusi šī attīstība: „Mēs varam veidot šīs „spektrālās būtnes”, imitējot interneta dokumentus. Tas darbojas. Tas ir veids, kā radīt kaut ko ar daudz zināšanām un iebūvētu intelekta, kas varbūt ir līdzīgs tam, ko izdarīja evolūcija”.

Kāpēc šī analoģija darbojas? Tāpēc, ka evolūcija arī rodas no milzīga skaita mazu izmaiņu (mutāciju un simbiozes), kas atkārtojas miljoniem gadu. Tas ir akls un lēns process, kas beidzot iegulda dzīvajos organismos spējas: instinktus, refleksus vai modeļus. Tas ir haotisks un trokšņains. Tāpēc katrs gēns ietekmē daudzas organisma īpašības; un tāpēc zālēm ir blakusparādības, jo tās traucē ne tikai vēlamo, bet arī citus procesus.

Patiesībā pārsteigums par to, ka mākslīgais intelekts pārvalda valodu, paredzot vārdus — kas pārsteidza Riquelme — man atgādina šoku, ko izraisīja Darvins: kā pieņemt, ka dzīvnieki, cilvēki un pat viņu dzejoļi ir akla procesa blakusprodukts, kura vienīgais mērķis ir “maksimāli palielināt kopiju skaitu”?

4. nodarbība. Mēs esam automatizējuši kognīciju

François Chollet ir piesardzīgs, runājot par mākslīgo intelektu. Viņš to labprātāk sauc par “kognitīvo automatizāciju”. Pēc viņa domām, patiesais intelekts prasīs kaut ko, kas pašreizējiem modeļiem nav, – “kognitīvo autonomiju”, spēju saskarties ar nezināmo un pielāgoties. Chollet vēlas apturēt pārspīlējumus, vienlaikus atzīstot ievērojamu sasniegumu: mēs automatizējam kognitīvās uzdevumus rūpnieciskā mērogā. „Pārsteidzošais par deep learning ir tas, cik daudz var sasniegt ar tīru atmiņas spēju,” viņš raksta e-pastā. Viņaprāt, LLM nav tā apzinātā un efektīvā domāšana, kāda ir cilvēkiem. Tāpēc sākumā tie pieļāva rupjas kļūdas, piemēram, nepareizi skaitīja r burti vārdā raspberries. Viņš ir pārsteigts, ka bieži vien tie var aizstāt šo domāšanu: „Ja tev ir gandrīz bezgalīga pieredze, intelekts nav tik svarīgs.”

Citi eksperti redz vairāk nekā tikai atmiņu: vai mēs esam saskārušies ar reālu intelekta formu? Andrej Karpathy uzskata, ka jā. Dwarkesh Patel podcastā viņš paskaidroja, ka priekšapmācība dara divas lietas: „Pirmkārt, tā uzkrāj daudz zināšanu. Otrkārt, tā kļūst gudra. Novērojot algoritmiskos modeļus internetā, tā patiešām aktivizē neironu tīkla shēmas, lai pēc tam varētu mācīties kontekstā un vēl vairāk.”

Jeremy Berman, ARC Prize vadošā algoritma radītājs, pārliecinājās par secinājumu modeļiem, kas parādījās aptuveni pirms gada un kuriem ir mācīšanās posmi bez piemēriem: „Es biju pārsteigts, ka var apmācīt modeli, izmantojot tā paša mēģinājumus, un tas ļauj tam domāt un mācīties pašam,” viņš paskaidroja sarakstē. Viņš atsaucas uz pastiprināto mācīšanos (RL), ko aprakstīja DeepSeek R1 radītāji. „Ja LLM tiek uzdotas matemātiskas problēmas, ļaujot tam atbildēt 100 reizes un apmācot to pēc labākajām atbildēm, LLM iemācās. Tas pārsniedz tīru iepriekšējas apmācības memorizēšanu. Tādējādi jaunākās paaudzes modeļi risina garas un sarežģītas problēmas, ko to versijas pirms dažiem mēnešiem nespēja.

Carlos Riquelme norāda, ka pastāv semantiskas atšķirības: “Var iegaumēt algoritmus, mehānismus, domāšanas veidus. Kāds to var saukt par “domāšanas shēmām”, bet citi teiks, ka vienkārši ir iegaumēts algoritms, tāpat kā mēs mācāmies saskaitīt”. Turklāt Riquelme uzsver, ka RL ir aktīvāka mācīšanās. No brīža, kad modelis ģenerē atbildes un saņem atgriezenisko saiti, “tas var beigt ar to, ka iegaumē kaut ko, kas nebija sākotnējos datos”.

Agüera y Arcas uzskata, ka AI ir reāla inteliģence. Bez jebkādiem papildus apzīmējumiem. Viņš uzskata, ka Gemini, ChatGPT vai Claude modeļi parāda vispārināšanas spējas, kas pārsniedz to, ko mēs varam saukt par iegaumēšanu. Un viņu pārsteidz, ka Chollet uzskata pretēji: „Kādu pierādījumu viņš meklē?”, viņš mums teica. Viņaprāt, daba jau pierāda, ka pastāv daudzveidīgas inteliģences formas, piemēram, Portia zirnekļi (kas plāno viltīgus uzbrukumus) vai astoņkāji (kas savu kognitīvo spēju sadala starp kājām).

5. nodarbība. Tā ir vairāk intuitīva nekā racionāla

Šeit rodas paradoks. Pagājušā gadsimta iztēlē roboti bija aukstas racionālas ierīces: loģika, aprēķini, dedukcija. Bet pašreizējā AI darbojas pretēji.

Psihologs Daniels Kahnemans, Nobela prēmijas laureāts ekonomikā, izšķīra divas sistēmas cilvēka domāšanā. 1. sistēma ir ātra, automātiska, intuitīva; tā izmanto saīsinājumus un modeļus. 2. sistēma ir lēna, apdomīga, racionāla; tā prasa apzinātu piepūli. Pirmā sistēma dominē mūsu dzīvē. Zīdainis zina, kā zīst, mēs noņemam roku no uguns, turējam glāzi ar pareizo spēku… Tas ir tas, kas robotiem prasīja desmitgadēm.

Pārsteigums ir tas, ka pirmie LLM darbojas tuvāk 1. sistēmai nekā 2. sistēmai. Tie kopē Borges stilu, raksta ar ritmu. Tie dara lietas, nezinot, kā to izskaidrot, tāpat kā mēs. Tie nedomā soli pa solim: tie ir uztvēruši modeļus masveidā. Tieši apzināta domāšana — dedukcija, skaitīšana, loģika — ir to vājības.

Tāpēc jaunākās inovācijas mēģina pievienot domāšanu. Minētie “domājošie” modeļi — no DeepSeek R1 līdz pašreizējai paaudzei — raksta paši sev, pirms atbild, ģenerē domāšanas ķēdes soli pa solim, kas ir piesardzīgākas un pārdomātākas. Citi sasniegumi meklē to pašu: apmācības ar pastiprinājumu, kas atalgo pareizu domāšanu, vairāku mēģinājumu veikšanu paralēli, lai pēc tam izvēlētos labāko, vai modeļu savienošanu ar ārējiem matemātiskiem rīkiem, kas pārvar to ierobežojumus. Tas ir mēģinājums izveidot mākslīgu 2. sistēmu. Tas vismaz zināmā mērā darbojas: jaunie modeļi gūst panākumus matemātikā un telpiskajos testos, kur pirmie LLM cieta neveiksmi.

6. nodarbība. Cilvēki arī esam modeļi

Ja AI uztver modeļus un ar to raksta, tulko un zīmē, rodas neērts jautājums: cik daudz no mums darbojas tāpat?

Varbūt vairāk, nekā mums patīk atzīt. Mēs jau zinām, ka mūsu smadzenes nepārtraukti izmanto īsākus ceļus. Redzot automātiskās mācīšanās sniegumu, neizbēgami rodas jautājums, cik daudz automātiska ir cilvēku spējās, kuras tradicionāli saistām ar talantu vai pieredzi — rakstīt ritmā, izvēlēties krāsas, uztvert tonis.

Zinātnes vēsture ir vēsture par mūsu izņēmuma statusa izbeigšanu. Galileo pierādīja, ka mēs neesam universa centrs; Darvins — ka mēs neesam īpaši radījumi; neirozinātne — ka mēs neesam viens, bet daudzi. Tagad AI pievieno vēl vienu mācību: prasmes, ko uzskatījām par ļoti savām, var uztvert, izmantojot masveida modeļus.

7. mācība. Mēs piedzīvojam AI kambrijas eksploziju

Pašreizējai AI ir dziļas ierobežojums. Dažas no tām Andrej Karpathy uzskaitīja jau minētajā podkastā: „Tām trūkst pietiekamas inteliģences, multimodalitātes, datoru plūstošas izmantošanas vai nepārtrauktas mācīšanās. Tās ir kognitīvi nepietiekamas. Es domāju, ka visu šo problēmu risināšanai būs nepieciešama desmitgade”. Bet ir atklāta veiksmīga formula, kas apvieno tīklus, datus un aprēķinus. Tāpēc mēs piedzīvojam kambrija periodu. Tāpat kā tā dzīves eksplozija pirms 540 miljoniem gadu, kad pēkšņi parādījās daudz dzīvnieku, tagad mēs redzam eksploziju jaunu pieeju mākslīgajam intelektam. Ir laboratorijas, kas pēta aizraujošus virzienus: Sara Hooker strādā ar adaptīvajām sistēmām, Fei-Fei Li vēlas izveidot modeļus, kas atšifrē fizisko pasauli, François Chollet pēta mākslīgo intelektu, kas raksta un attīsta savas loģiskās programmas.

Cik tālu šie mēģinājumi aizvedīs? Blaise Agüera y Arcas neredz robežas: “Mūsu smadzenes spēj veikt neticamus sasniegumus domāšanā, radošumā, empātijā. Un šīs smadzenes ir shēmas: tās nav kaut kas pārdabisks. Un, ja tās nav kaut kas pārdabisks, tās var modelēt ar datoru palīdzību”.

Vai mums izdosies to īstenot praksē? To neviens nezina. Bet šis jautājums vairs nav tikai teorētisks. Mēs redzam, kā algoritmi iemācās lasīt, rakstīt, programmēt un domāt — dažreiz neveikli, citreiz pārsteidzoši. Neatkarīgi no tā, kas notiks turpmāk, tas jau ir noticis. Un tas ir kaut kas neparasts. Varbūt tas būs vissvarīgākais pārvērtības mūsu dzīvē.