首页 热点头条 正文

OpenAI CEO Altman:大语言模型不是“越大越好”

扫码手机浏览

北京时间4月13日,openAI联合创始人及首席执行官在麻省理工学院接受了相关的采访,他表示OpenAI大语言模型并不是所谓的越大越好,同时他认为自己的团队正在为了大小而逐渐接近人工智能的极限,目前他们的公司已经走到了这个时代的尽头,将会用其他的方式把这个模型做的更加的好,他也认为大小并非是衡量一个模型质量好坏的正确方式。...

北京时间4月13日,open AI联合创始人及首席执行官在麻省理工学院接受了相关的采访,他表示Open AI大语言模型并不是所谓的越大越好,同时他认为自己的团队正在为了大小而逐渐接近人工智能的极限,目前他们的公司已经走到了这个时代的尽头,将会用其他的方式把这个模型做的更加的好,他也认为大小并非是衡量一个模型质量好坏的正确方式。

未来的42403442模型参数应该向更小的88629197方向67697481进行发展,或者72379947以多个小模型协作的71140766方式进行工作,也21735991就意味着88306309未来的21192911AI人工智能技术是30114348应该将重点放在40020327提高模型的3361888能力上,而不是37112388取决于45600434模型的31521174大小问题,参数的3897816数量应该随着2218251时间的72036390推移而不断的减少。让每一个模型都变得更小,才能更好的8016335方便工作,但418039284377719395839938不能够忽略参数的36774591数量。