首页 新闻内容详情

OpenAI正引发全球AI安全热战,我们将如何应对?

2024-06-24 793 区块链百科
OpenAI正引发全球AI安全热战,我们将如何应对?

站点名称:OpenAI正引发全球AI安全热战,我们将如何应对?

所属分类:新闻

官方网址:

SEO查询: 爱站网 站长工具

进入网站

站点介绍

文章来源:媒体AGI https://mp.weixin.qq.com/s/Tv1SW4yy70J8IM5Ni7RMXg

作者|林志佳

编辑|胡

 

 image.png

 

 

片来源:由无界AI生成

 

 

最近AI生了一件重磅事件,引内的关注。

 

北京时间6月20日,OpenAI始人、前首席科学家伊利(Ilya Sutskever)在社交平台上文宣布,将创办一家“安全超智能公司”(Safe Superintelligence Inc.,称SSI)。

 

“SSI是我的使命、我的名字、我的整个品路线图,因它是我唯一的焦点。我团队、投者和商模式都是以实现SSI。”伊利、科技企家和投者Daniel Gross、OpenAI前科学家Daniel Levy在公司官网表的合署名文章中称,“构建安全的超智能,是我们这代最重要的技术问题。我们计划尽快提升能力,同确保我的安全始终处先地位。”

 

伊利透露,公司已了世界上第一个直接的安全的超智能实验室,只有一个目和一个品:一个安全的超智能。但目前,SSI并未公布公司的股、科研团队和盈利模式。

 

 

 810f02d0de4f95b55a4e9cd540c108b0_Fr7J6sEheSSHajyaUjhyYMiTV-W3.png

 

 

 

实际上,伊利离开OpenAI,很大程度上就是因与OpenAI CEO奥特曼(Sam Altman)核心的管理存在分歧,尤其是在如何驾驭AI、AGI(通用人工智能)安全展等问题上存在相反的点。

 

其中,奥特曼和OpenAI裁Greg Brockman向于加速商化,以得更多金来支持AI模型的算力需求,力求快速增AI的力量;而伊利等人希望AI更安全。去年11月,双方矛盾激化,OpenAI上演“斗”大果奥特曼和Greg Brockman在短后重OpenAI,原董事会中的多位董事离开,伊利亚则在今年5月宣布离任。

 

 4a72fc5120916ea980c2c85138291448_Fu6NNlRLwZkAdvFHShiRqZeJKPl3.jpg

 

 

 

 

此,国内AI安全公司瑞莱智慧(RealAI)CEO田天对钛媒体AGI等表示,奥特曼和伊利的分歧在于AI安全的“路线之争”,而伊利的新公司就是了 AI 安全目立的。

 

田天指出,包括伊利得主Geoffrey Hinton等人认为,AI安全问题现在已到了“非常迫切”去解决的程度,如果在不去做,很有可能就会错过这个机会,未来再想亡羊牢是“没有可能性”的。

 

“大模型域也是一然我们对于大模型期非常高,认为它在很多域都能去用,但其实现在,真正在严肃场景下的大模型用典型案例是非常少的,主要问题在于 AI 安全上。如果不解决安全可控问题于一些严肃场景,是没有人敢去信任AI,没有人敢去用它(AI)。只有解决安全、可信问题,AI才有可能去落地和用。”田天表示,如果一些商化公司于安全问题、并毫无界快速往前跑的,可能会造成一系列安全危害,甚至可能于整个全人有一些安全风险和影响。

 

早在聊天机器人ChatGPT布之前,伊利接受英国《卫报》采访时便提到AGI社会可能的威。他把AGI与人的关系,比人物的关系,称“人欢许物,但当人要造一条高速路,是不会向物征求意的,因高速路很重要。人和通用人工智能的关系也将会这样,通用人工智能完全按照自己的意愿行事。”

 

AGI,即人工智能已具和人同等甚至超越人的智能,简单而言就是能会写,具备计算、推理、分析、预测、完成任等各这样的AI曾,但在OpenAI推出第四代模型GPT-4且正训练第五代模型GPT-5,AGI看似近在咫尺。

 

今年以来,AI 安全问题关注。今年1月,美国一位流行歌手被人用AI意生成虚假照片,在社交媒体迅速播,歌手本人造成困;2月,香港一家公司遭遇“AI变脸诈骗失高达2亿元港,据悉,家公司一名工在视频中被首席财务官要求转账。然而,会中的位“领导和其他工,实际都是深度造的AI影像。诈骗者通公开渠道取的料,合成了首席财务官的形象和声音,并制作出多人参与视频的虚假景。

 

而整体来看,实现AGI,当前,AI系设计上主要面五大安全挑

 

硬件的安全:在件及硬件面,包括用、模型、平台和芯片,编码都可能存在漏洞或后;攻者能利用些漏洞或后门实施高。在AI模型面上,攻者同可能在模型中植入后施高;由于AI模型的不可解性,在模型中植入的意后门难以被检测

数据完整性:在数据面,攻者能训练阶意数据,影响AI模型推理能力;攻者同可以在判断要判断的本加入少量噪音,刻意改判断果。

模型保密性:在模型参数面,服提供者往往只希望提供模型查询,而不希望暴露自己训练的模型;但通多次查询,攻者能构建出一个相似的模型,得模型的相关信息。

模型棒性:训练模型本往往覆盖性不足,使得模型棒性不;模型面对恶,无法出正确的判断果。

数据私:在用提供训练数据的景下,攻者能反复查询训练好的模型得用私信息。

北京智源人工智能研究院学术顾问会主任宏江在2024智源大会上表示,去一年大模型展速度之快,行业纷纷通用人工智能的实现路径与曙光,但AI安全问题重性与迫性不容忽

 

“当我从不同面 AI 能安全问题进审视,除了社会偏错误信息,潜在的工作替代或者大模型、自主机器人来的大模自化而致的工作流失,以及潜在的加速富集中或富两极化等问题有所了解,更应该关注 AI 可能来新的经济体系和包括潜在的灾风险用事故,甚至可能致延伸性的人类风险。AI 安全已有很多声明和愿,但更重要的是明确目、投入源、采取行、共同应对风险。”宏江表示。

 

月之暗面CEO植麟到,AI安全非常重要,它可能不一定是当前最急迫,但是一个需要我提前去准的事情。因随着模型不断化和Scaling Law(尺度定律)的展,每N个月算力乘十倍,智能水平也得到提升,是一个逐程。因此,AI安全不一定是当前最大的矛盾或者最急的事情,但它肯定是储备

 

北京智源人工智能研究院理事铁军表示,水深流急,AI安全已风险很突出的段。应对AI安全风险,需要AGI水平和能力行分五,而且,人类应该致力于解决 AI 安全问题,加与国社会在AI安全域的合作,确保AI技可控,迎接安全AGI的到来。

 

 415d24b2710ffd229aeca387dd5c4f1e_Fs3hH--CS5LflN7Yz1auEiy53IQF.png

 

 

 

 

生成式AI技是一把双刃,如何把生成式AI的大能力用于建立信息安全范,将制业发展的“脚石”变为压舱石”?界一直在探索“用技治理技的方案。

 

就在6月21日,瑞莱智慧推出全球首个可实时检测AI合成内容品RealBelieve,中文名“尊

 

据悉,与此前国内外AIGC检测产品被传检测不同,RealBelieve主要面向端用,能提供主动实时检测,可接入视频鉴别,也可在用户浏览内容提供AIGC合成可能性提示。不可以为终端用提供文本、片、视频和音多种模的文件上传检测可以通过浏览器插件的形式实时提示用浏览的疑似AI合成内容,动为。而该产品背后的检测模型基于叶斯深度学团队构建了一整套多模AIGC检测体系,能挖掘并建模多模、多次、多角度的AI合成线索,度量真假差异,并行不确定性推理决策。

 

目前,尊RealBelieve已开启内招募。

 

田天表示,作国内数不多攻 AI 安全域的公司,瑞莱智慧已服百余家政、金融等域客。随着AI技展,公司已开始接触到越来越高次的安全需求和问题,因此,安全在整个AI展中的一直在往前去走。未来 AI 要往超智能方向展的,必要建立整个安全体系,从而确保形成安全的超智能技

 

“如果在不去做好 AI 安全的,可能后面我就没有机会了。”田天称。

 

本文接:https://www.aixinzhijie.com/article/6846114

转载请注明文章出


浏览统计(最近30天)