A mesterséges intelligencia a gépek intelligenciájának megnyilvánulását jelenti úgy, ahogy azt az állatoktól és az embertől ismerjük. Ez a széles definíció ma már olyan dolgokat is magában foglal, mint a mesterséges látás és felismerés, amely nagyon fontos a robotikában és az autonóm járműveknél. Korábban azonban a mesterséges intelligencia alatt főleg a gondolkodás reprezentációját értették, más szóval a logikai következtetést (levezetést) vagy a tervezést és az intelligenciát igénylő játékok játszását. Ebből a cikkből megtudhatod, a mesterséges intelligencia milyen alapvető formáival találkozhatsz a mai világban.
Nagy érdeklődés övezi az AI-t főleg a sakk terén – már csak azért is, mert ez az a játék, amely először mutatta be az emberiségnek a kombinatorikus robbanás koncepcióját. A kombinatorikus robbanást már Tomáš Štítný ze Štítného (14. századi cseh nemes, író, teológus, fordító és keresztény prédikátor) értekezése is leírja. Ő a sakkjátékról szóló traktátusában megemlíti, hogy a játék alkotója egy szemet kért az első mezőre, a dupláját a következőre, majd a következőre – és bár kezdetben úgy tűnik, hogy nagyon kicsi árról van szó, valójában az uralkodó soha nem tudná kifizetni.
A kombinatorikus robbanás hatalmas probléma a klasszikus algoritmusok számára, amelyek nagyon gyorsan belefulladhatnak egy olyan problémába, amelynek összetettsége meghaladja az univerzum létezését – és ezért a mesterséges intelligenciába gyorsan elkezdtek bekerülni olyan módszerek a kifinomult becslésekhez, amelyek radikálisan leegyszerűsítik a problémát. Ilyen például a tanulás, vagyis az ismétlődő minták keresése, amelyek felhasználhatók. Továbbá a klasszifikációs problémák, amikor képesek vagyunk a jelenlegi helyzet alapján esélyeket becsülni, vagy az orákulum koncepciója, amely egyfajta intuíció formája, amely segít eligazodni a rendkívül komplex helyzetekben.
Technikai szempontból megkülönböztetünk egzakt és sztochasztikus (valószínűségi) módszereket. Az egzakt módszerek közé tartoznak az szakértői rendszerek, vagyis a megadott szabályokból és adatokból való kapcsolatok levezetésére szolgáló rendszerek – és ezek azzal jellemezhetők, hogy képesek pontosan bizonyítani, hogyan jutottak el a feladattól a következtetéseikig.
A sztochasztikus módszerek jóval többet tippelnek, ami olyan eredményekhez vezet, amelyek nem feltétlenül ideálisak, viszont összetettebb problémákat is képesek kezelni, amelyeket nehéz leírni. Ilyenek például az evolúciós algoritmusok, amelyek úgy működnek, mint maga az evolúció: Vesznek egy kiindulási állapotot, azt randomizálják, majd kipróbálják, hogy az eredmény a véletlenszerűsítés után jobb vagy rosszabb. Ahhoz, hogy működhessenek, fel kell ismernünk a „jobb“ és „rosszabb“ közötti különbséget valami segítségével, amit kritériumfüggvénynek nevezünk. Ennek meg kell mondania nekünk, hogy az eredmény jobb vagy rosszabb – nem feltétlenül azt, hogy mennyivel, de legalább azt, hogy egyáltalán ilyen vagy olyan.
Az evolúciós algoritmus ezután veszi a legsikeresebb eredményeket és újra randomizálja őket, általában valamivel kisebb mértékben. Aztán újra kiértékeljük, majd újra és újra. Így nagyon gyorsan eljutunk a kellően megfelelő megoldásokhoz, még ha nem is feltétlenül teljesen ideálisak – ezt az evolúciós algoritmusok nem is ígérik. Csak azt ígérik, hogy ha van valamilyen optimum, akkor eljutunk hozzá, bár ha esetleg több is van, nem feltétlenül találjuk meg a legjobbat. Ezzel az eljárással fejlesztette ki például 2006-ban a NASA az ST5-ös „evolúciós antennát“, amely minimális méretekkel kínálja a legjobb sugárzási teljesítményt.
Ma a legnagyobb sikereket a neurális hálózatok aratják – és ez főleg annak köszönhető, hogy a növekvő számítási teljesítménnyel egyre összetettebb és összetettebb feladatokat kezelnek. A neurális hálózattal való munka a tanulásra oszlik, amely számításilag igényesebb és ma jellemzően szuperszámítógépeken vagy azok klaszterein történik, és a betanított hálózatra, amely képes otthoni hardveren is futni, mint például egy kellően erős videokártyával vagy AI gyorsítással rendelkező PC.
Így működik például a Stable Diffusion – a tömörítésért és az alakzatok elemzéséért felelős neurális hálózat. Hatalmas adatbázisokból tanul szuperszámítógépeken, de a betanított modellje képes minden olyan otthoni PC-n működni, amelynek legalább 8 GB RAM-ja van. Amit a kliens rész generál a PC-den, az a szuperszámítógépeken való tanulás által van feltételezve. A Stable Diffusion alkalmazási része biztosan nem teljes, az otthoni PC teljesítménye nem elegendő az egész alkotáshoz, csak annak generálásához.
Az a modell, ahol a neurális hálózat nagy teljesítményű hardveren tanul és a számítógépeken csak aktiválódik, azt jelenti, hogy még mindig szűk AI-ról van szó. De ez egy nagyon praktikus mesterséges intelligencia, amellyel az automatikus fordításnál, a gépi olvasásnál, a képjavító technológiáknál, mint az NVIDIA DLSS-e, a fotók vagy videók valós idejű javításánál és hasonlóknál találkozhatunk.
Jelenleg a mesterséges intelligencia további innovatív formáival kísérleteznek, mint például a one shot learning (tanulás egy példából), a biochipek, amelyek élő szövetet és emberi neuronokat kombinálnak az elektronikával, vagy a kvantum- és fotonikus chipek, amelyek a teljesítmény növelését és a számítási erő bővítését kínálják új lehetőségekkel.
Hogy a fent említett utak közül melyik bizonyul a legjobbnak, még mindig kérdés – de önmagában már az is nagyszerű, hogy a kutatás és fejlesztés biztosan nem áll meg.