当地时间周二,OpenAI首席执行官山姆·奥特曼在迪拜举行的世界政府峰会(WGS)上通过视频连线发表讲话,警告人工智能(AI)发展可能因“社会失衡”引发严重风险,并呼吁建立类似国际原子能机构(IAEA)的全球性监管框架。他坦言,这一潜在威胁令其“彻夜难眠”。 奥特曼指出,AI的破坏性未必源于系统本身的恶意,而可能源于社会层面的微妙失衡。他解释称,当个体态度与群体规范严重冲突时,即使AI系统无明确攻击意图,也可能因技术与社会环境的复杂互动导致灾难性后果。“相比机器人当街故障,我更担忧那些看似无害却能引发连锁反应的潜在风险。”他强调,AI的发展速度远超社会预期,亟需建立国际协调机制以规避失控风险。 为应对这一挑战,奥特曼提议仿效国际原子能机构模式,成立跨国家、跨领域的AI监管组织。他特别强调,AI行业不应主导规则制定过程。“包括OpenAI在内的科技公司需保持谦逊,监管框架应由多方共同参与构建。”他透露,当前全球各国正密集讨论AI治理方案,这一辩论阶段“健康且必要”,但未来几年必须形成具有国际共识的行动计划。 尽管对风险保持警惕,奥特曼仍对AI的教育应用前景表示乐观。他提到,此前因担心学生滥用AI撰写论文而产生的抵制情绪正在消退,如今越来越多学校将AI视为培养未来技能的关键工具。“这让我深受鼓舞。”他同时将当前AI技术比作早期黑白屏手机,“再给我们几年时间,它将显著进步;十年后,其能力将超乎想象。” 此次发言中,奥特曼未披露具体监管方案细节,但重申“透明度”与“全球协作”两大原则。随着AI技术加速渗透社会各领域,其呼吁的跨国监管框架能否落地,已成为全球科技治理的重要议题。https://www.chinaz.com/2025/0724/1699915.shtml