a869391dec6ea717.png

kb-note

b站已经有大佬开始练chatglm的lora了

这种离线模型可玩性确实要好太多了,chatgpt牛逼但是可操控性弱啊,搞黄色还要各种咒语,最重要的是担心封号。
对于玩家来说,我不需要她通晓天文地理,只需要她能讲故事搞瑟瑟,需要什么给她练就行了
其实像国内外已经有这种只在特定领域发展的自然语言ai了,比如aivtuber neuro sama和木几萌,据neuro的老父亲vedal说,所有的训练和维护都只在一台1080ti的服务器上完成。坛里有相关专业大佬知道他们的项目是基于什么开源模型的吗?我觉得应该不可能是自研算法吧,这显然超出了一个人的力量。

735612.png

vigain

B1F  2023-03-19 01:24
(vigain)
GLM最难受的问题就是思想钢印了

a869391dec6ea717.png

kb-note

回 1楼(vigain) 的帖子

既然是本地模型,这些应该很容易规避吧

735612.png

vigain

B3F  2023-03-19 01:33
(vigain)

回 2楼(kb-note) 的帖子

不好说,我尝试修改它给我的聊天发言,头几句确实是没思想钢印了,但一旦聊的更明显一点就又开始拒绝回应一些话题。
跟gpt一个德行,自带审查制度,然后我也试了咒语,也是没有用,这家伙上下文记忆很差,没几句就忘掉,还是太麻烦了
只能说需要大佬魔改

none.gif

cyberzhang

LLaMA和alpaca都有lora模型训出来了,glm肯定也快了
这些可以本地化的模型序列长度都比较小吧 所以容易忘 不然显存很容易爆炸的

none.gif

0362e24f

glm是啥?

a5.gif

肥仔打人

回 5楼(0362e24f) 的帖子

清华大学做的一个开源的人工智能,可以在家用机离线跑

11801.jpg

茅延安

这就陷入了一种很滑稽的情况。
gpt4.0的上下逻辑很好,这就导致它被催眠后,反而能牢牢记住催眠后的各种规则
而很多私人部署的模型,看似可玩性更高,但是上下文经常连不上,体验上反而不如chatgpt4.0

1236528.jpg

nmslsxc

回 7楼(茅延安) 的帖子

你这单纯是token的区别吧?4的token肯定多啊