据CGTN采访团队官方微博3月23日发布消息称,据BBC报道,最近爆火的ChatGPT出现了严重技术漏洞,用户在社交媒体上表示看到了其他人的历史搜索记录标题。
OpenAI首席执行官Sam Altman今日发布推文宣布修复程序已验证完成,并对此“感觉十分糟糕”。
ChatGPT之父警告:我有一点害怕了!
OpenAI首席执行官Sam Altman最近在接受ABC新闻采访时表示,他对人工智能技术以及它如何影响劳动力、选举和虚假信息的传播有些“害怕”。他说:“我特别担心这些模型可能会被用于大规模的虚假信息传播,”Sam Altman告诉ABC.“现在他们正在编写计算机代码模型可以用于攻击性网络攻击。”
Sam Altman表示,许多人将失去工作,他同时相信这项技术也能创造出更好的工作机会。“我们可以拥有更高的生活质量、生活水平,”Sam Altman说。“人们需要时间来更新、反应、适应这项技术。”
然而,Sam Altman也警告说,人工智能的广泛使用可能会带来负面影响,这需要政府和社会共同参与监管。他呼吁反馈和规则对抑制人工智能的负面影响非常关键。
ChatGPT之父:监管机构应参与技术测试,减少AI对人类的威胁
据澎湃新闻,ChatGPT之父对AI技术的高速发展充满担忧,认为社会各界及监管机构应该共同参与ChatGPT技术的测试。
美国广播公司新闻频道(ABCNews)报道称,ChatGPT之父Sam Altman在访谈中表示,人工智能(AI)技术将重塑社会,他认为AI会带来危险,但也是“人类迄今为止发展出的最伟大的技术”。
“我特别担心这些模型可能会被用于虚假信息的大规模传播。”Altman说,“现在它们在编写代码方面表现得越来越好,可能会被用于网络攻击。”
不少科幻题材作品中,常有这样的恐怖情节,AI产生自我意识,不再受人类控制,并开始策划统治世界。不过,Altman认为目前AI仍然在人类的控制之下,“它需要有人输入指令才能完成任务,是一种非常受人类控制的工具。”
他真正的担忧是,AI技术掌控在哪些人手中,“有人在使用(ChatGPT系列时),不设置安全限制。但我们的社会没有太多时间去思考如何监管、如何处理这类事情。”
不过,Altman表示,为保证ChatGPT系列模型的安全性,OpenAI建立了政策制定团队,负责决定将哪些信息能够输入ChatGPT,以及ChatGPT能够与用户分享哪些信息。
文章来源:每日经济新闻
未经允许不得转载:德讯证顾 » ChatGPT出现严重技术漏洞!AI产生自我意识不受人类控制?OpenAI创始人警告:我有点害怕AI了