是时候开始拥抱大模型和AIGC了

“不要和我竞争大模型,请用文心一言和别人竞争。“ ——李彦宏

文章目录

前言

2016年是人工智能的元年。2023年是大模型的元年。谁能抢占风口浪尖,谁就能脱颖而出。

国内外主要大模型盘点

在这里插入图片描述

AI生成网站

国外 AI 生成网站,分别是 OpenAI的ChatGPT Playground、ArtBreeder、Jukedeck 和 TalkToTransformer,同时还有一款国内 AI 生成网站「即时灵感」。

AI 创作音乐

AI 写诗

AI 写小说

古文创作

古文相关的NLP任务主要为:

  • 古诗分类
  • 古文翻译为现代文
  • 古文生成,将现代文转成古文
  • 对联和古诗、词生成

古文AI写作工具”,【搭画智写】是一款基于AI技术的古文写作工具,可以生成高质量的古文文案和古风小说。
本文所介绍的古文GPT-2模型由国内研究者采用UER开源框架训练而成,训练语料为殆知阁古代文献2.0版语料库,近33亿字。由于该库中75%文本均未标点,研究者采用北京师范大学古诗文断句系统对其进行自动标点,得到了近300万段文本作为训练语料。更多信息,可参考如下链接或论文。

预训练模型有:siku-bert、siku-roberta和bert-ancient-chinese

AI 作画

  • MidJourney是一款AI创作图片的工具, 它根据Discord里的描述词,生成精美、创意十足的图片。
  • 腾讯的AIDesign自动生成Logo: https://ailogo.qq.com/guide/brandname
  • https://github.com/Raadsl/Logo-generator
  • https://www.namecheap.com/logo-maker/app/editor
  • https://github.com/Slfdspln/Logo-Maker

AI出题和解题

  • mathAI
  • Codex
  • AI狂读arXiv上200万篇论文。
    新模型Minerva,基于Pathway架构下的通用语言模型PaLM改造而来。分别在80亿、600亿和5400亿参数PaLM模型的基础上做进一步训练。Minerva做题与Codex的思路完全不同。Codex的方法是把每道数学题改写成编程题,再靠写代码来解决。而Minerva则是狂读论文,硬生生按理解自然语言的方式去理解数学符号。在PaLM的基础上继续训练,新增的数据集有三部分:主要有arXiv上收集的200万篇学术论文,60GB带LaTeX公式的网页,以及一小部分在PaLM训练阶段就用到过的文本。

辅助编码

GitHub Copilot:是由GitHub与OpenAI合作开发的一款基于人工智能的代码补全工具。它通过生成智能建议和自动补全来改变开发者编写代码的方式。这是我迄今为止尝试过的最好的人工智能工具之一。

TabNine:是一款基于人工智能的代码编辑器自动补全扩展。它通过使用机器学习模型来预测和建议整行或代码块,超越了传统的自动补全功能。用户可以选择免费使用TabNine,但会有一些限制,或者选择订阅Pro版本以获得高级功能。

ChatGPT:ChatGPT对你的工作效率来说可能是一个真正的改变者。例如,它可以提供有用的示例,比如建议一个用于测试的数组或帮助重构代码片段。

附录

大模型相关链接

AI编程链接

AI作画

AI出题

古文创作链接

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2023年12月26日
下一篇 2023年12月26日

相关推荐