(資料圖片僅供參考)
ChatGPT開發(fā)公司OpenAI的總裁Greg Brockman周一表示,公司正測試如何收集影響其人工智能(AI)決策的廣泛信息。他在一場活動中就全球人工智能監(jiān)管框架進(jìn)行了討論。他提到了一種類似于維基百科的模式,這要求持不同觀點(diǎn)的人聚集在一起,并就百科全書的條目達(dá)成一致。Brockman還提出另一種方法,即世界各國政府應(yīng)該協(xié)調(diào)一致,確保人工智能的安全發(fā)展。
自O(shè)penAI去年11月推出ChatGPT以來,生成式人工智能技術(shù)吸引了公眾,使該程序成為有史以來增長最快的應(yīng)用程序。不過,人工智能也因其創(chuàng)建深度偽造圖片和其他錯誤信息的能力而成為人們關(guān)注的焦點(diǎn)。
Brockman表示,像國際原子能機(jī)構(gòu)(IAEA)這樣的機(jī)構(gòu)可以對人工智能部署施加限制,審查安全標(biāo)準(zhǔn)的遵守情況,并跟蹤計算能力的使用情況。
另一個建議是達(dá)成一項限制前沿人工智能增長的全球協(xié)議,或者建立一個全球聯(lián)合項目。
OpenAI首席執(zhí)行官Sam Altman上周向美國國會議員提出了為人工智能設(shè)置護(hù)欄的各種想法,包括設(shè)立許可證制度等。他本周將訪問歐洲的政策制定者。