(資料圖片僅供參考)
英偉達(NVDA.US)的強大芯片為人工智能(AI)的繁榮奠定了基礎。然而,隨著ChatGPT等生成式AI的出現(xiàn),越來越多用戶在享受便利的同時發(fā)現(xiàn),AI模型有時會出現(xiàn)“幻覺”,即說出錯誤的事實、涉及有害的話題或導致安全風險。為了解決這一問題,英偉達在周二發(fā)布了一款名為NeMo Guardrails的新軟件,該軟件能夠為AI模型設置安全“護欄”,避免AI輸出一些不良的內(nèi)容。
資料顯示,NeMo Guardrails是一個軟件層,位于用戶和AI模型之間,可以在模型輸出不良內(nèi)容之前進行攔截和修改。例如,如果用戶需要一個針對特定方向的AI,就可以利用該軟件來限制AI至輸出對應方面的內(nèi)容,而不談論不相關的話題。
此外,該軟件還能夠利用一個AI模型檢測另一個AI模型,如果兩個模型輸出的答案不一致,軟件將直接輸出“我不知道”的回答。通過這種方式,人工智能“胡說八道”的情況會得到有效降低,一些可能存在危險的回復也能夠被直接攔截。
英偉達應用研究副總裁Jonathan Cohen表示:“每個人都意識到生成式大語言模型的力量,以一種安全可靠的方式部署它們非常重要。”英偉達將NeMo Guardrails作為開源軟件提供,并將持續(xù)對其進行更新。