具体来说,公司要检查的是能造成上亿元经济损失,或导致许多个人受伤或死亡的“灾难性”风险。

领导公司备灾小组的迈德里(Aleksander Madry)告诉彭博社,他的团队会每月提交报告给内部新成立的安全顾问团队,再由奥尔特曼与公司董事局分析团队呈交的建议。

延伸阅读

今年4月,一群AI领域的领导和专家签署一份公开信,基于对社会有潜在风险理由,要求停止发展一套比OpenAI的GPT-4更有威力的人工智能系统。

人工智能公司OpenAI赋予公司董事权力,否决公司领导的决策,以进一步加强开发尖端科技的安全保障。

ChatGPT开发者OpenAI星期一(12月18日)发表一系列指引,阐明公司计划如何应对它最强大人工智能(AI)系统可能引起的极端风险。

迈德里说:“AI本身没有好坏,我们正在塑造它。”

OpenAI今年10月宣布成立“备灾小组”,并会持续评估它的AI系统在网安、化学、核子和生物威胁等四大范畴的表现,同时减低科技可能带来的任何危害。

公司在总裁奥尔特曼短暂被罢免期间,市场焦点放在这家全球顶尖科技公司的董事局和管理层之间的权力平衡上。

他也希望其他公司能利用OpenAI的指引,来评估旗下AI模型的潜在风险。

在指引下,OpenAI只会在确定最新技术的安全性之后才会开始运用。公司也将成立一个顾问团队以审核安全报告,再转交公司高层和董事局。虽然公司领导负责做决策,董事局可推翻决定。