Semmi sem tökéletes, és időnként a mesterséges intelligencia alapú chatbotok is meglehetősen fura dolgokat művelnek. Ezt a problémát orvosolná a grafikus processzorairól ismert Nvidia.
Egyre jobban látszik, hogy bár rengeteg dologra használhatók a chatbotok, azért – akárcsak egy szertelen gyerek esetében – nem árt meghatározni számára a határokat. Ebben segíthet az Nvida nyílt forráskódú NeMo Guardrails nevű szoftvere, amely gondoskodik arról, hogy a nagy nyelvi modellekkel (LLM) működő alkalmazások, mint amilyenek a chatbotok is, pontosak, a célnak megfelelők és biztonságosak legyenek.
Mivel a generatív mesterséges intelligencia biztonsága iparági probléma, az Nvidia úgy tervezte a szoftvert, hogy minden LLM-mel, például az OpenAI ChatGPT-jével is zökkenőmentesen együttműködjön. A szoftver tartalmazza az összes kódot, példát és dokumentációt, amelyre a vállalkozásoknak szüksége lehet a szöveget létrehozó MI-alkalmazások megbízhatóságához és biztonságához.
A NeMo Guardrailst gyakorlatilag minden szoftverfejlesztő használhatja, azaz nem kell MI-szakértőnek lennie. Néhány sornyi kóddal pillanatok alatt új szabályokat hozhatnak létre. Ráadásul mivel a NeMo Guardrails nyílt forráskódú, minden olyan eszközzel működik, amelyet a vállalati alkalmazásfejlesztők használnak.
forrás: https://hvg.hu/tudomany/20230507_nvidia_nemo_guardtrails_nyilt_forraskodu_szoftver_fejlesztoknek