谷歌大模型GeMini骗人?打不过ChatGPT?谷歌大模型揭秘

admin 2023年12月19日08:55:41评论25 views字数 887阅读2分57秒阅读模式

                       理论上讲是牛的


目前从Google获得的信息是,Gemini有三个版本:


          Gemini Ultra —适用于高度复杂的任务

          Gemini Pro — 适用于各种任务

          Gemini Nano — 最高效。


从测试来看,Gemini在各项LLM大模型测试基准程序中都获得了高分

谷歌大模型GeMini骗人?打不过ChatGPT?谷歌大模型揭秘


                       理论优势到底在哪?


根据谷歌官方的宣传,其用了TPU v4的架构,其思想其实在之前的谷歌深度学习框架TensorFlow中已经有体现。


谷歌大模型GeMini骗人?打不过ChatGPT?谷歌大模型揭秘


TPU(张量处理单元)是 Google 专门设计的一种芯片,用于加速深度学习和其他机器学习任务的处理。TPU v4 和 v5e 是 TPUs 的更新版本,它们具有更高的性能和效率,能够更快地处理大规模的数据和模型。

在通过 AI 优化过的基础设施上对 Gemini 1.0 进行大规模训练,意味着使用这些 TPU 芯片和其他 AI 技术,可以在大规模的计算基础设施上对 Gemini 1.0 进行训练,以加速模型的训练和优化。

这种大规模的训练可以显著提高模型的性能和准确性,使其能够更好地处理各种任务,如自然语言处理、图像识别、语音识别等。



人类反馈强化学习(RLHF)

根据官方的解释,大模型还使用了RLHF,这是一种结合了强化学习(RL)和人类反馈的技术。它利用人类的智能和机器的智能来共同解决复杂的问题。


在 RLHF 中,机器通过与人类互动来学习任务,同时人类也会提供指导和反馈来帮助机器更好地完成任务。这种互动可以发生在人类与机器之间,也可以通过人类与机器之间的接口进行。

RLHF 的一个关键特点是它能够将人类的智能和机器的智能相结合,通过利用人类的智能和机器的智能,RLHF 可以处理更复杂的问题,并提高任务的准确性和效率。

此外,RLHF 还可以通过不断学习和改进来提高性能。它可以根据人类的反馈和指导来调整其策略和行为,以更好地适应不同的环境和任务。




                   是骡子是马,拉出来溜溜


不过不管吹得再怎么牛,等谷歌将其完全发布后,我们再去评价其好坏。


原文始发于微信公众号(代码小铺):谷歌大模型GeMini骗人?打不过ChatGPT?谷歌大模型揭秘

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年12月19日08:55:41
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   谷歌大模型GeMini骗人?打不过ChatGPT?谷歌大模型揭秘http://cn-sec.com/archives/2315164.html

发表评论

匿名网友 填写信息