GPT-4技术细节被隐藏 OpenAI联合创始人:人工智能开源不明智

2023-03-17 14:34:00 来源:黑科技

3月17日,据外媒报道,美国人工智能(AI)研究公司OpenAI在本周二推出了新一代大型语言模型GPT-4,但它并没有提供有关GPT-4的技术细节,这让AI社区的许多人感到失望。

GPT-4在文本和图像方面的“多模态”训练将使它能够摆脱聊天框,更充分地模拟一个拥有色彩和图像的世界,在其“高级推理能力”方面超过ChatGPT。对此,OpenAI的首席科学家兼联合创始人伊利亚·苏茨科弗(Ilya Sutskever)表示,OpenAI不分享更多关于GPT-4信息的原因(害怕竞争和对安全的担忧)是“不言自明的”。

他说:“在竞争格局方面,竞争是激烈的。GPT-4不容易开发,OpenAI所有人花了很长时间才做出这个东西,还有很多很多公司也想做同样的事情,所以从竞争的角度来看,你可以把这看作是该领域的成熟。”

他还表示:“这些模型非常强,而且会变得越来越强。在某种程度上,如果有人想的话,很容易用这些模型造成很大伤害。随着性能的提高,你不想透露它们是有道理的。我预计,几年后,每个人都会完全明白,开源人工智能是不明智的。”

OpenAI首席执行官山姆·奥特曼(Sam Altman)也认为,AI会带来真正的危险,但它也可能是“人类迄今为止开发出来的最伟大的技术”,可以极大地改善我们的生活。他强调,OpenAI需要监管机构和社会尽可能地参与ChatGPT的推广。

ChatGPT是OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,它可以根据用户的要求快速生成文章、故事、歌词、散文、笑话,甚至代码,并回答各类疑问。

GPT-4是一个多模态大型语言模型,即支持图像和文本输入,以文本形式输出;扩写能力增强,能处理超过25000个单词的文本;更具创造力,并且能够处理更细微的指令。

在高级推理能力方面,GPT-4超过了2022年11月30日推出的ChatGPT AI聊天机器人工具。

OpenAI表示,尽管GPT-4功能强大,但它与早期的GPT模型有类似的局限性:它并不完全可靠(例如,可能出现“幻觉”),有一个有限的上下文窗口,并且没有习得经验。因此,在使用GPT-4输出时应谨慎行事,特别是在对可靠性要求很高的情况下。

OpenAI已经分享了有关GPT-4的大量基准测试和测试结果以及一些有趣的演示,但出于竞争和安全考虑,该公司基本上没有提供有关GPT-4的架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等技术细节。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。