为什么 AI 总在 "靠谱" 和 "离谱" 之间反复横跳?
Hey, 我是 沉浸式趣谈
本文首发于【沉浸式趣谈】,我的个人博客 也同步更新。
转载请在文章开头注明出处和版权信息。
如果本文对您有所帮助,请 点赞、评论、转发,支持一下,谢谢!
AI 真的懂你问的问题吗?
AI — 它可能是个「语言魔术师」,但绝对不是「人类大脑」
你心血来潮问 AI:
你:「为什么古埃及人建造金字塔?」
AI(认真回答):「古埃及人建造金字塔主要是作为法老的陵墓,同时也有宗教意义,代表通往来世的阶梯。金字塔的建造反映了古埃及人对死后生活的信仰和对法老神圣地位的崇敬。」
你:「他们用了什么技术能搬运那么重的石块?」
AI(开始推理):「考古学家认为古埃及人可能使用了斜坡系统、滚木和杠杆原理来搬运巨石。一些理论提出他们使用了湿沙降低摩擦力,有效减轻搬运重量。工人们组成团队,通过绳索和集体力量协作完成。根据计算,大约需要4,000名工人协同工作才能移动最大的石块...」
你:原来如此...(AI将有限的历史证据、各种假说和未经证实的理论混合在一起,呈现为确定的知识)
为什么 AI 总在「靠谱」和「离谱」之间反复横跳?
答案很简单:它(LLM:大语言模型)根本不知道什么是「合理」。
AI 聊天机器人(比如 ChatGPT)就像一个「超级语言拼图大师」。
它的所有「知识」,只是从海量文字中统计出的「词语搭配套路」。
当你提问时,它就像在玩一场巨型文字接龙——永远在猜「下一句话怎样接最像人话」,而不是判断「这件事是否可能发生」。
举个栗子
发布者:admin,转转请注明出处:http://www.yc00.com/web/1748180708a4743201.html
评论列表(0条)