Umetna inteligenca ni okolju nič kaj prijazna

Avtor: Uredništvo, Objavljeno: 4. 07. 2025 05:30:00, Kategorija: Računalništvo

Toliko ogljikovega dioksida kot let med Londonom in New Yorkom. Povraten...

Umetna inteligenca ni okolju nič kaj prijazna
Na Tehniški univerzi v Münchnu so raziskovalci pod vodstvom Maximiliana Daunerja vzeli pod drobnogled 14 velikih jezikovnih modelov (LLM), vključno s sistemi Deepseek, Deep Cogito, Meta in Alibaba. Vsakemu modelu so zastavili 1.000 standardiziranih vprašanj iz filozofije, svetovne zgodovine, mednarodnega prava, abstraktne algebre in srednješolske matematike. V postopku so uporabili računalnik z NVIDIA A100 GPU, ki ga poganja Perun Framework, in izračunali povprečni emisijski faktor 480 g CO2/kWh. Rezultati so bili osupljivi.

Da bi razumeli, kako delujejo LLM-ji in zakaj so tako okoljsko zahtevni, je pomembno razumeti pojma »žeton« (token) in »parameter«. Ko vnesemo ukaz – bodisi vprašanje ali navodilo – ustvarimo žetone, ki predstavljajo dele našega ukaza, LLM pa jih, z bolj intenzivnimi naprednimi sposobnostmi razmišljanja med svojim delom, nato ustvari še več.

Ko se LLM usposablja, se »uči« s prilagajanjem parametrov, torej nekih ustreznih številk znotraj nevronskega omrežja. Ti parametri nadzirajo, kako model napoveduje en žeton za drugim. Model z manj parametri se torej šteje za enostavnejšega in z manj »utežmi« (številka, ki AI pove, kako pomembno je nekaj pri obdelavi informacij), zato bo ustvaril manj žetonov, a morda ne bo tako natančen. Po drugi strani bo model z velikim številom parametrov imel tudi veliko uteži – in bi moral biti natančnejši (ni pa vedno tako). Na žalost so najbolj zapleteni in natančni LLM tudi najbolj energetsko intenzivni, saj predstavljajo računalniško delo (iskanje, povezovanje, ocenjevanje), ki seveda zahteva energijo. Ta energija povzroča emisije CO2.

Modeli z zmogljivim »reasoning« modulom so v povprečju ustvarili 543,5 »razmišljajočih« žetonov na vprašanje, medtem ko so jih besedilni (text-only) modeli porabili le 37,7 za enako nalogo. Toda več žetonov ni pomenilo večje točnosti – pogosto je pomenilo le več praznih besed.

Deep Cogito 70B (70 milijard parametrov) je bil najbolj točen, saj je dosegel 84,9% uspešnost, a je obenem proizvedel trikrat več CO2 kot primerljivi modeli z osnovnimi odgovori. Na drugem koncu spektra je Alibaba Qwen 7B ustvaril najmanj emisij, le 27,7 g CO2-ekvivalentov na vseh 1.000 vprašanjih, a je dosegel skromnih 31,9% natančnosti.

Najbolj energijsko potratni model je bil Deepseek R1 70B, ki je za odgovor na 1.000 vprašanj proizvedel 2.042 g CO2-ekvivalentov, kar ustreza 15 km poti z bencinskim avtomobilom. Če bi ta model odgovoril na 600.000 vprašanj, bi ustvaril emisije primerljive povratnemu letu London–New York. Model je pri enem samem matematičnem vprašanju ustvaril neverjetnih 14.187 žetonov, medtem ko so standardni modeli za isto vprašanje vrnili le enega do dva.

Raziskovalci so jasno pokazali, da več parametrov in več žetonov pomeni večjo energijsko porabo. Noben model, ki je ostal pod pragom 500 gramov CO2-ekvivalentov, ni presegel 80% natančnosti. To dokazuje obstoj izrazitega kompromisa med natančnostjo in trajnostjo: čim več parametrov in razmišljanja, tem več ogljičnega odtisa.

Na koncu je Dauner poudaril, da bi lahko uporabniki z zmanjšanjem dolžine odgovorov in selektivno uporabo zmogljivih modelov bistveno zmanjšali svoj ogljični odtis: »Če bi uporabniki poznali točen CO2 strošek svojih generiranih vsebin – na primer pretvorbe svojega portreta v akcijsko figuro – bi bili precej bolj premišljeni pri uporabi teh tehnologij.«

Raziskava je bila objavljena v strokovni publikaciji Frontiers in Communication.

Vir: Tehniška univerza v Münchnu

preberite še to

Računalništvo
Bolj berljiva tabela

Bolj berljiva tabela

Kako z izbiro celice obarvati celotno vrstico

Računalništvo
Halo: Campaign Evolved

Halo: Campaign Evolved

Predelava izvirne zgodbe, ki prihaja na Xbox, PC in PS5 leta 2026, bo vsebovala tri nove predhodne misije in &...

Računalništvo
Kdo jim je dal moje podatke?

Kdo jim je dal moje podatke?

Majhen trik v Gmailu, ki vam lahko pomaga najti »spemerje«…

Računalništvo
Ko umetna inteligenca sanja

Ko umetna inteligenca sanja

Zakaj jezikovni modeli halucinirajo in zakaj popolna »umetna« resničnost ostaja nedosegljiva &mdas...

Računalništvo
Kje so programi?

Kje so programi?

Preprosta bližnjica do seznama vseh nameščenih programov

Računalništvo
Tole pa precej olajša stvari

Tole pa precej olajša stvari

V Excelu obstaja funkcija »VZEMI«, ki je verjetno ne poznate, je pa zelo uporabna

Računalništvo
Pisava, ki izboljša pomnjenje

Pisava, ki izboljša pomnjenje

Avstralski znanstveniki so izdelali računalniško pisavo, s katero si boste lažje zapomnili in razumeli ...

Računalništvo
Microsoft izdal Windows 11 25H2

Microsoft izdal Windows 11 25H2

Majhne prenos velike jesenske posodobitve

Računalništvo
Atari iz leta 1977 proti ChatGPT

Atari iz leta 1977 proti ChatGPT

Eksperiment med jezikovnim modelom in staro šahovsko igro se je izšel v prid skoraj 50 let stare...

Računalništvo
Prvi hrošč je bil – molj

Prvi hrošč je bil – molj

Izraz programski hrošč je nastal že pred 78 leti

Računalništvo
Skrči, da ustreza

Skrči, da ustreza

Za mnoge verjetno manj znana, a večkrat zelo uporabna funkcija.

Računalništvo
Bi radi hitro kaj narisali?

Bi radi hitro kaj narisali?

Ne znate risati, a bi radi v svoj dokument vstavili kakšno risbico? Poskusite takole…