Mokslininkai pirmą kartą rado įrodymų, kad dirbtinis intelektas gali mąstyti kaip žmogus
(1)Naujasis tyrimas patvirtino, kad multimodaliniai dideli kalbos modeliai (LLM) gali spontaniškai tvarkyti objektus taip pat, kaip tai daro žmogaus smegenys, netgi nepaisant to, kad jie nėra to mokomi. Šis atradimas gali turėti įtakos AI plėtrai ir pakeisti požiūrį į jo kognityvinių gebėjimų vertinimą.
Mokslininkai sujungė elgesio eksperimentus ir neurovizualizaciją, kad suprastų, kiek objektų sąvokos LLM sutampa su žmogaus smegenų vaizdiniais. Kitaip tariant, jie norėjo išsiaiškinti, ar AI gali atpažinti ir klasifikuoti daiktus pagal funkciją, emocijas, aplinką ir pan.
Norėdami tai išsiaiškinti, tyrėjai ChatGPT-3.5 ir Gemini Pro Vision uždavė užduotį „trečias nereikalingas“. Rezultatas – autoriai gavo 4,7 mln. sprendimų apie 1 854 realaus pasaulio objektų, nuo gyvūnų iki baldų, panašumą.
Analizė parodė, kad AI sukūrė 66 konceptualius matmenis jų organizavimui, lygiai taip, kaip tai padarytų žmonės. Šie matmenys peržengia pagrindinių kategorijų, tokių kaip „maistas“, ribas ir apima sudėtingus atributus, įskaitant tekstūrą, emocinę reikšmę ir tinkamumą vaikams.
Didžiausias AI ir žmogaus panašumas buvo pastebėtas vertinant semantinius požymius, o vizualiniai aspektai, tokie kaip forma, kalbos modeliuose liko mažiau išreikšti. Daugialypėje versijoje (MLLM) sutapimas su žmogaus suvokimu buvo žymiai didesnis.
Be to, tyrėjai nustatė koreliaciją tarp žmogaus smegenų sričių, atsakingų už aplinkos suvokimą, aktyvacijos ir objektų vektorių atvaizdų AI. Tai ypač ryškiai pasireiškė parahipokampinėje srityje, susijusioje su scenų atpažinimu.
Taigi, dideli kalbos modeliai – tai toli gražu ne „papūgos“, kurios tik imituoja kalbą. Priešingai, jie turi vidinį realaus pasaulio sąvokų supratimą, labai panašų į žmogiškąjį. Tai gali tapti žingsniu link „žmogiškesnių“ kognityvinių sistemų kūrimo – nuo sąsajų iki humanoidinių robotų.

Rašyti komentarą