0.5b 这种才是最有用的,因为它可以万能地微调成单一小任务。
而且它参数量小,本地跑,运行快。
以前的那些nlp任务都可以用这种万金油来微调。
比如文章提取,文章样式整理,数据格式转换,文章校验,快递信息提取等。
你可能会说我为什么不用传统的nlp来干? 主要是现在的llm模型,从训练到部署已经非常的流水线了,不会深度学习的人也能训练一个并部署,这个流水线简单到,真的只需要处理数据集而已。
整个过程你甚至不需要写…。
开源项目都有哪些盈利模式,都是怎么坚持下来的?
室友因为身体原因要用冰箱,但是电费却由我们平摊,合理嘛?
普通人用得着4k分辨率的显示器吗?
相对于 Linux,Windows Server 存在的意义是什么?
老板说我设计了一周的海报还是不行,我到底该怎么学啊?
据说go和c#的开发者都说自己比较节省内存,你们认为呢?