预测下一个词的大语言模型为什么会涌现出智能

6 小时 49 分钟前
 snowhere

几年前和 ChatGPT 对话聊天时感慨它什么都知道。现在深入使用 cursor 完成工作感慨它什么都会,更不要说各式各样的 Agent 。 我对 LLM 理解不是很多,只是疑惑大语言模型本质不是预测下一个词吗,为什么感觉现在 AI 涌现出了智能。

531 次点击
所在节点    AI Agent 智能体
16 条回复
wysnxzm
6 小时 46 分钟前
一堆神经元组成的大脑为什么会有意识
kera0a
6 小时 45 分钟前
大力出奇迹!

另外我有个另外的问题
V 友普遍都认为 AI 的能力还会和过去几年一样维持爆炸性增长。
但我怎么觉得现在快到瓶颈了,毕竟怼规模已经快到上限了,是什么会维持这种增长性呢?
Rickkkkkkk
6 小时 41 分钟前
一个现象可以窥探这里面是究竟如何工作的

llm 是会把词都映射到高维的向量去,比如男人、女人分别是 x1,x2 ,国王、王后分别是 y1,y2

那么会发现 x1-y1 和 x2-y2 的值是高度相似

我理解在最初的数据集训练(也就是把词映射到高维向量的过程)中,整个模型实际上是有学习到真正知识的
PalenessIb
6 小时 39 分钟前
本质上不是一种“赛博算命”吗,用户给出问题(提示词),然后 AI 来推测、计算出最佳答案,过程中需要平衡到用户和客观现实等多个层面。
kaixinyidian
6 小时 39 分钟前
人为什么会有智能?
skydcnmana
6 小时 22 分钟前
最近有一个实验,把果蝇的神经元结构复制到虚拟世界里,不需要预编程和训练,它自己就能在虚拟世界里驱动身体进行果蝇的行为,就像《万神殿》里的意识上传一样。
skydcnmana
6 小时 20 分钟前
类似蚂蚁和蜜蜂,简单的个体,组织起来就拥有了群体智能,神经元也是一样,规模化能带来质变。
shadowyue
6 小时 17 分钟前
有没有别的技术路线,现在这个模式总感觉不是正解
penisulaS
6 小时 10 分钟前
科学家也想知道
HFX3389
6 小时 7 分钟前
大概是因为原本人类的词元就是有逻辑的,不然人不可能看懂以及相互交流,现在就算是 gpt-5.4 也有语料污染的问题,就是证据之一,人类为了绕过审核发明的各种词被 LLM 认为这些词之间有逻辑,所以纳入了数据之一。
IanG
6 小时 6 分钟前
现在停下来 用大脑思考一个问题,是否也是按顺序的一个字一个字的来的
ttsh
6 小时 0 分钟前
同意 2 楼,力大飞砖
xzpjerry731
5 小时 8 分钟前
语言本身已经浓缩了大量人类智能,而大规模预测训练恰好能把这些结构从文本里榨出来
mengdu
4 小时 59 分钟前
unused
4 小时 54 分钟前
@shadowyue 量子计算
moudy
4 小时 53 分钟前
说明这玩意正好印合了人类大脑的工作机制,只是人类大脑的并行度比 gpu 还是要高好几个级别

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1198706

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX