
-
專利
-
商标
-
版權
-
商業秘密
-
反不正當競争
-
植物新品種
-
地理标志
-
集成電路布圖設計
-
技術合同
-
傳統文化
點擊展開全部
律師動态
更多 >>知産速遞
更多 >>審判動态
更多 >>案例聚焦
更多 >>法官視點
更多 >>裁判文書
更多 >>中國知識産權律師網從路透社獲悉,本周四,美國人工智能安全研究所表示,人工智能初創公司OpenAI和Anthropic已與美國政府簽署協議,将對其人工智能模型進行研究、測試和評估。
雙方首次達成此類協議之際,兩家公司正面臨有關人工智能技術安全和道德使用的監管審查。
加州立法者最早将于本周就一項法案進行投票,該法案将廣泛規範人工智能在該州的開發和部署方式。
“安全、值得信賴的人工智能對這項技術的積極影響至關重要。我們與美國人工智能安全研究所的合作利用了他們廣泛的專業知識,在廣泛部署之前嚴格測試我們的模型,”Anthropic的聯合創始人兼政策主管傑克克拉克說。該公司得到了亞馬遜和Alphabet的支持。
根據協議,美國人工智能安全研究所将在OpenAI和Anthropic公開發布之前和之後訪問它們的主要新模型。
這些協議還将使合作研究能夠評估人工智能模型的能力和與之相關的風險。
ChatGPT制造商OpenAI首席戰略官詹森·權(Jason Kwon)表示:“我們相信,該研究所在确定美國在負責任地開發人工智能方面的領導地位方面可以發揮關鍵作用,并希望我們的合作能爲世界其他地區提供一個可以建立在此基礎上的框架。”
美國人工智能安全研究所所長伊麗莎白·凱利(Elizabeth Kelly)表示:“這些協議隻是一個開始,但對于我們負責任地幫助管理人工智能的未來來說,這是一個重要的裏程碑。”
該研究所是美國商務部國家标準與技術研究所(NIST)的一部分,還将與英國人工智能安全研究所合作,并就潛在的安全改進向公司提供反饋。
作爲拜登政府行政命令的一部分,美國人工智能安全研究所于去年成立,旨在評估人工智能模型的已知和新出現的風險。
評論