- 炒股杠杆10倍 陈茂波:香港旅发局正研第一期烟火及无人机表演 预料5月推出
- 2021年4月27日,上海市公安局宝山分局以叶某亚等人涉嫌诈骗罪移送起诉。本案涉及中医诊疗专业问题,纪某波具有一定中医知识,辩解其行为不是诈骗。针对被告人的辩解...
在去年OpenAI“宫斗事件”中最终出局的前首席科学家配资资讯宝app,自己出来创业了。
北京时间6月20日凌晨,前OpenAI联合创始人、前首席科学家Ilya Sutskever(伊利亚·苏茨克韦尔)在个人社交平台宣布,正在创办一家名为SSI(Safe Super intelligence inc,安全超级智能)的公司,旨在“直截了当”地创造安全的超级智能。
今年以来,险资在一级市场中的活跃度较去年更加活跃。执中数据显示,今年以来截至7月30日,37家险资共有63起出资事件,投向45只基金,出资金额高达1025亿元,这一数字高于去年同期水平。
上海市发展改革委副主任陈国忠在当天召开的新闻通气会上表示,下一步,上海市发改委将会同各有关部门,积极推进各项政策措施落实、落地,切实发挥创业投资支持科技创新、支持初创企业的重要作用,推动上海国际金融中心和国际科创中心联动发展。
离职一个月后创办新公司
就在一个月前的5月15日,苏茨克韦尔才宣布从OpenAI离职。彼时,他在个人社交平台称,OpenAI的发展轨迹堪称奇迹,他相信OpenAI将在几位高管的领导下构建安全又有益的AGI(通用人工智能)。他同时透露,自己未来将筹备开启一个新项目,这是一个对他个人而言非常有意义的项目,他将在适当的时候分享细节。
据悉,SSI公司的另外两位联合创始人分别为前苹果AI高管Daniel Gross和前OpenAI技术团队成员Daniel Levy。公开资料显示,Daniel Gross曾创办搜索引擎公司Greplin,在该搜索引擎被Apple收购后担任Apple的AI和搜索项目负责人。Daniel Gross曾被《时代》周刊评为首届全球百大AI人物之一。而Daniel Levy作为苏茨克韦尔的前同事,在OpenAI时就与苏茨克韦尔一起训练大型AI模型。
记者在SSI公司的官方账号上发现,该公司称安全超级智能是其唯一的关注点。“我们的团队、投资者和商业模式都致力于实现安全超级智能。我们将安全性和能力作为技术问题,通过革命性的工程和科学突破来解决。我们计划尽快提升能力,同时确保我们的安全性始终保持领先地位。”据了解,SSI公司已经启动了世界上第一个SSI实验室,目标与产品都只有一个:安全超级智能。
值得注意的是,公司还专门提到,由于专注于安全超级智能,公司不会受到管理开销或产品周期的干扰,也不会受到短期商业压力的影响。在外界看来,这似乎是在影射在追逐盈利和商业化道路上逐渐降低安全要求的OpenAI。
作为OpenAI的前首席科学家,苏茨克韦尔被外界称为“纯粹的技术理想主义者”,曾是OpenAI“超级对齐”团队的联合领导人。在人工智能领域,“对齐”指的是用正确的人类价值观对人工智能进行编程,从而避免出现科幻小说中邪恶机器带来的消极后果。因此,苏茨克韦尔十分注重人工智能安全,这与奥特曼希望加速OpenAI产品的商业化进程,短期快速盈利的目标有所冲突。
去年11月,OpenAI曾发生剧烈的人事动荡。公司发布公告,宣布将免除奥特曼CEO职务,并将其驱逐出董事会。当时,苏茨克韦尔被外界视作这场“宫斗”大戏的策划者。在解雇奥特曼以后的一场公司内部会议中,苏茨克韦尔曾表示OpenAI面临安全风险和激进的商业化策略问题,并透露奥特曼之所以被驱逐,是因为其在安全上的冒进和过度商业化。彼时,OpenAI产品存在不少安全问题,而且产品发布节奏太快,接连曝出多项重大事故,显示了奥特曼急切的商业盈利主张。
然而几经反转,奥特曼重返OpenAI担任首席执行官,而苏茨克韦尔在此事件后也逐渐淡出公众视野。在OpenAI的许多重大事件,例如前段时间GPT-4o的发布会中均不见苏茨克韦尔的踪影,他似乎逐渐变为公司的“边缘人员”。
AI安全问题引发关注
苏茨克韦尔的境遇,其实是OpenAI当前加速商业模式探索、降低安全优先级这一价值观转向的体现。
在苏茨克韦尔5月15日宣布离职后,OpenAI前首席安全研究员Jan Leike也紧随宣布离开公司。Jan Leike在其社交平台上发布的帖子中表示,在过去的几个月里,他的团队一直在“逆风航行”,有时会为算力资源苦苦挣扎,完成关键的安全研究变得越来越困难。他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。
5月17日,在苏茨克韦尔离职两天后,OpenAI就宣布解散“超级对齐”团队。然而事实上,OpenAI在过去的半年中已经有多名负责AI安全的员工辞职或被开除。据OpenAI内部人士爆料,公司安全意识强的员工已经对奥特曼的领导失去了信心。
特斯拉首席执行官马斯克针对“超级对齐”团队解散这一消息评论称,“这显示安全并不是OpenAI的首要任务。”据外媒报道,OpenAI“超级对齐”团队的解散证实了一件事:OpenAI的领导层,尤其是奥特曼选择目前优先考虑的是产品,而不是安全措施。苏茨克韦尔将注意力集中在确保人工智能不会伤害人类上,而包括奥特曼在内的其他人更渴望推动新技术的发展。在过去一年时间里,安全在OpenAI中已处于次要地位。
随着人工智能技术的快速发展,对其安全的监管问题也被置于越来越重要的位置。“AI教父”Geof-frey Hinton最近在接受媒体采访时表示,AI很快将超越人类智能,但人类对AI发展安全性方面的重视程度不够。普华永道的一项研究称,在疏于监管的情况下,生成式AI可能会生成违法或不当的内容,并可能导致危及知识产权保护。
事实上,过度商业化、忽视安全性是OpenAI及其首席执行官奥特曼一直饱受外界质疑的地方。因此,外界对于苏茨克韦尔创办一家“目标与产品都只有安全超级智能”的公司,也便充满期待。奥特曼与苏茨克韦尔最终分道扬镳了,而人类在发展人工智能的道路上,未来或许也将走到一个“选择技术”与“选择安全”的岔路口。
校对:王蔚配资资讯宝app