Inteligjenca Artificiale: Nga Modelet drejt Mendjes

Vitet e Fëmijërisë
Shkencëtarët dhe inxhinierët ishin si prindër të durueshëm, duke u mësuar kompjuterëve truket e thjeshta të inteligjencës artificiale. Përparimi ishte gradual, dhe shumë njerëz dyshonin se AI do të bëhej ndonjëherë me të vërtetë i dobishëm në shkallë të gjerë.

Deep learning, një nënfushë e machine learning, kishte ekzistuar për dekada, por kishte pak sukses për shkak të fuqisë së pamjaftueshme kompjuterike dhe mungesës së të dhënave. Megjithatë, rreth vitit 2012, përparimet në hardware (veçanërisht GPU-të), disponueshmëria e dataset-eve të mëdha dhe algoritme të reja çuan në një rilindje të AI-së.

Studiuesit zbuluan se teknikat e deep learning mund të përmirësonin ndjeshëm performancën në detyra të ndryshme, si njohja e imazheve dhe përpunimi i gjuhës natyrore. Ishte si të zbuloje një mënyrë të re për t’ia mësuar fëmijës sonë—AI-së—që të mësonte më shpejt dhe më mirë. Megjithatë, ende duheshin modele të ndryshme për modalitete të ndryshme: një model për tekst, një tjetër për imazhe dhe një tjetër për video.

Midis viteve 2012 dhe 2018, shkencëtarët anembanë botës punuan pareshtur, të shtyrë nga kurioziteti dhe pasioni. Ata shkruanin punime kërkimore dhe bashkëpunonin, sikur të ishin një grup magjistarësh duke ndarë magjitë e tyre sekrete. Në vitin 2017, u krijua një magji veçanërisht e fuqishme në Google Brain. Quhej modeli Transformer, i cili merr parasysh rëndësinë e çdo fjale ose fraze bazuar në kontekstin përreth, dhe jo vetëm në sinjale të drejtpërdrejta. Arkitektura Transformer solli mekanizma që çuan në përparime të mëdha. Tani mund të përdorje një model të vetëm për tekst, imazh dhe video.

Arkitektura Transformer është themeli i shumë përparimeve të fundit të AI-së, përfshirë ChatGPT. GPT nënkupton Generative Pre-Trained Transformers.

Duke filluar me GPT-2 në 2019, çdo version i ri u bë më i zgjuar dhe më mbresëlënës. Zhvilluesit i adoptonin me entuziazëm këto modele, duke parë përmirësime graduale por të rëndësishme. Por momenti i vërtetë “AHA!” erdhi në fund të vitit 2022. Atëherë aftësitë e ChatGPT arritën një nivel ku mund të mahniste konsumatorët me inteligjencën dhe përdorshmërinë e tij. Ky ishte momenti kur gjenerimi i AI-së doli në botë—jo më si eksperiment, por si një pjesë e së ardhmes sonë digjitale kolektive.


Të dhënat NUK janë nafta e re. JANË SHUMË MË TË VLEFSHME.

Imagjino një nxënës të ri që përparon falë një diete të vazhdueshme me libra dhe materiale mësimore. Sa më shumë të dhëna ka AI, aq më shpejt dhe më zgjuar bëhet.

Ka dy mënyra për t’i bërë modelet tona më të zgjuara:

  1. T’i bësh modelet më të mëdha—pra duke rritur fuqinë kompjuterike.

  2. T’u japësh shumë të dhëna cilësore për të mësuar.

Por jo gjithmonë ka të dhëna.

Disa probleme janë si enigma komplekse që as nxënësi më i zgjuar, e as AI-ja më e avancuar nuk mund t’i zgjidhë menjëherë. Prandaj studiuesit po e mësojnë AI-në të mësojë duke eksperimentuar dhe duke provuar përsëri—si një fëmijë që mëson përmes lojës. Kjo metodë quhet reinforcement learning, dhe e ndihmon AI-në të bëhet më e zgjuar pa pasur nevojë për çdo përgjigje të gatshme.

Imagjino një garë emocionuese ku konkurrentët janë modele të fuqishme AI nga kompani të ndryshme. Sot kemi të gjitha kompanitë e mëdha të teknologjisë, secila me pikat e veta të forta dhe të dobëta, duke konkurruar për podiumin. Për shembull, Google Gemini është i shkëlqyer për krijimin e tregimeve, ndërsa ChatGPT është shumë i fortë në përgjigjet dhe sqarimet.

Por kush do ta fitojë këtë garë?

Gjithçka varet nga burimet dhe talenti. Kompanitë që kanë më shumë fuqi kompjuterike dhe ekipet më të zgjuara do të kenë avantazhin. Është si një maratonë ku pajisjet më të mira dhe trajnerët më të mirë bëjnë diferencën.

Në këtë garë, të kesh “atletet më të mira” do të thotë të kesh çipet më të mira kompjuterike.

Kompani si NVIDIA po prodhojnë çipe që mund të përballojnë detyra masive paralele dhe të përpunojnë dataset-e të mëdha. Disa kompani, si Google, përdorin TPU – çipe të optimizuara pikërisht për arkitekturën Transformer. Është si të kesh një armë sekrete që të jep avantazh kompetitiv.

Apple është si “dark horse” në këtë garë. Ndërsa të tjerët janë fokusuar te modelet e mëdha, Apple po punon me modele më të vogla, më të zgjuara, që mund të funksionojnë në telefonin tënd. Imagjino të kesh një gjeni të vogël në xhep, duke të ndihmuar në përditshmëri. Kjo mund të ndryshojë lojën, duke e bërë AI-në e zgjuar të qasshme për këdo, kudo.


Çmimi final i kësaj aventure të AI-së është: arsyetimi.

Kjo është aftësia për të menduar dhe për të zgjidhur probleme në një mënyrë që shkon përtej ndjekjes së rregullave. Është si t’i mësosh AI-së jo vetëm të mësojë fakte, por të kuptojë dhe të krijojë ide të reja.

Për ta arritur këtë, shkencëtarët po krijojnë ambiente ku AI mund të eksperimentojë dhe të mësojë—si një shkencëtar në laborator. Ata po e mësojnë AI-në jo vetëm të memorizojë, por të mendojë, të reflektojë dhe të përmirësohet. Kjo është një sfidë e madhe dhe hap dyert për kërkime më intriguese dhe qasje inovative.

/Uzair Ali, Cur8Capital/

Artikulli paraprakTë vrasësh frikën… hapi i parë drejt ndryshimit
Artikulli tjetër6 Investime hallall me rrezik të ulët që mund t’i zëvendësojnë aksionet dhe kriptovalutat