Az OpenAPI a napokban egy olyan új, nyílt forrású programozási nyelv kiadását jelentette be, ami jelentősen egyszerűsítheti a CUDA-ismeretekkel nem rendelkező mesterséges intelligencia-kutatók számára a hatékony programozást. A Triton segítségével ugyanis egy Python-szerű nyelvben válik lehetővé a GPU-kon erősen párhuzamosan, és persze hardveresen gyorsítottan futni képes MI-kódok írása.

Az új nyelv ráadásul egy jóval magasabb szintű absztrakciót valósít meg a hardver felett, mint a CUDA teszi. Így bár éppen úgy feldolgozási kernelekben "gondolkodik", mint előbbi, ugyanakkor teljesen újragondolja a párhuzamos feldolgozás egyéb részleteinek megvalósítását.

Ennek keretében szükségtelenné teszi, illetve automatizálja a memóriamegosztást és memóriaösszefűzést, amiket CUDA-ban "kézzel" kell elvégezni, de szinkronizációval és a tensor magok ütemezésével sem kell a programozónak bajlódnia benne. Ezen kívül maguk a tényleges feldolgozó kódok is egy, a Python-hoz rendkívül hasonló szintaxissal fogalmazhatók meg, ami már eleve ismerős lesz a legtöbb mesterséges intelligencia-programozó számára.

A kódokat a Triton először egy saját, Triton-IR nevű köztes nyelvre fordítja, majd ezen további optimalizációkat hajt végre, és LLVM-IR kódot generál belőle. Ebből aztán már az LLVM backend készíti el az Nvidia kártyákon már közvetlenül is futni képes PTX tárgykódokat. Az eszköz egyelőre AMD chipeken és processzorokon működő kódot nem tud generálni, de a távlati tervek között ennek megvalósítását sem zárják ki.

A Triton-ról további részleteket itt lehet olvasni, a nyelv forráskódja pedig a GitHub-on található meg.