1. OpenAI领导人呼吁监管AI和“超智能”,警告存在“生存风险”
- 据《华盛顿邮报》报道,ChatGPT的开发者OpenAI的领导人呼吁监管“超智能”和人工智能系统,建议建立类似于国际原子能机构的机构,以保护人类免受意外创造出有破坏力的东西的威胁。
- 他们在公司网站上发表的声明中表示,一个国际监管机构最终将有必要“检查系统,要求审计,测试是否符合安全标准,(并)对部署程度和安全水平施加限制”。他们以核能为例,作为另一种具有“生存风险可能性”的技术,提出了建立一个类似于国际原子能机构(IAEA)的权威机构的需要。
- 他们写道:“在未来十年内,可以想象……AI系统将在大多数领域超过专家技能水平,并开展与当今最大公司之一相当的生产活动。”“就潜在的利弊而言,超智能将比人类过去必须应对的其他技术更强大。我们可以拥有一个戏剧性地更繁荣的未来;但我们必须管理风险才能到达那里。”
- 这一声明呼应了Altman上周在国会的发言,这家总部位于美国的公司的首席执行官当时也证实了建立一个单独监管机构的必要性。
- 批评人士警告说,不要相信来自科技行业领导者的监管呼吁,他们可能会从继续开发而不受约束中获利。有些人说,OpenAI的商业决策与这些安全警告相矛盾——因为他们快速推出的产品引发了一场AI军备竞赛,迫使谷歌母公司Alphabet等公司在政策制定者仍在努力应对风险时发布产品。
2. 苹果限制员工使用GPT和其他外部AI工具 内部已开启自研
- 据CNMO新闻,《华尔街日报》发布文章称,有文件显示,苹果已限制在公司内使用GPT和其他外部AI工具,还告知员工不要使用微软的GitHub Copilot。不仅如此,目前苹果正开发自家的类似技术。
- 至于苹果这一开发动作是在GPT爆火之前还是之后,就不得而知了。但可以肯定的是,在苹果内部使用GPT或者其他外部AI工具可能会导致公司机密泄露或者侵犯版权等问题。
- GPT是由OpenAI开发的一种生成式预训练语言模型,能够根据输入的文本生成各种类型的文本内容。GitHub Copilot是由微软和OpenAI合作开发的一种基于GPT的代码生成工具。
3. AI炙手可热!OpenAI风投基金被“买爆”,第二支筹备中
- 据华尔街见闻报道,OpenAI最初的计划是只为其创业基金筹集1亿美元,然而该基金现在的规模已经达到了2亿美元,并且已经投资了10家初创公司。
- OpenAI创业基金旨在支持那些利用OpenAI技术进行创新和社会影响力的初创公司。该基金由OpenAI、微软、LinkedIn联合创始人Reid Hoffman、Y Combinator主席Sam Altman等共同管理。
- OpenAI表示,由于需求旺盛,该基金已经被“买爆”,目前正在筹备第二支基金。该基金将继续关注那些使用OpenAI技术或与其愿景相符的初创公司。