AI是?:零基础到上路,小白一看就懂!

希里安近日见闻不得不说,最近关于AI能力爆炸的新闻是层出不穷,我有一段时间甚至怀疑,自己所学的技术还有没有意义?现在还有必要再写文章吗,因为我所写的AI不但知道,甚至比人回答的更加详尽。以前费劲巴拉得到的知识现在只需要轻轻敲击下键盘就能轻松

AI是?:零基础到上路,小白一看就懂!

希里安近日见闻

不得不说,最近关于AI能力爆炸的新闻是层出不穷,我有一段时间甚至怀疑,自己所学的技术还有没有意义?现在还有必要再写文章吗,因为我所写的AI不但知道,甚至比人回答的更加详尽。以前费劲巴拉得到的知识现在只需要轻轻敲击下键盘就能轻松得到答案。

不过随着不断使用AI(各类大语言模型),相处的时间久了,AI就像一个无所不能的老师傅,耐心的回答我不管是什么样的问题,甚至有些问题问的就像小孩子一样天真。但是AI从来不生气,也没有脾气,甚至还会安慰我这个能力不大,脾气倒还不小的人类。

所以,了解AI的朋友应该更好的利用,不了解AI的朋友应该抓紧学习,用过你就知道,像我这种i人,遇到问题不用害怕没人指导,问的问题愚蠢之类的,多想一些没必要的,不会多问就是了。

然后希里安决定除了分享关于DevOps的知识,开始慢慢更新关于AI的知识,再结合自己的工作经验,给大家分享一些所见所得。

AI基础的概念

先说说什么是AI?

人工智能(Artificial Intelligence),是指通过计算机系统模拟人类智能行为的能力。这些行为包括学习、推理、感知、决策和语言交互等。简单来说,AI是让机器“像人一样思考和行动”的技术。

人工智能(英语:artificial intelligence,缩写为AI),称机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指用普通计算机程序来呈现人类智能的技术。该词也指出研究这样的智能系统是否能够实现,以及如何实现。同时,随着医学、神经科学、机器人学及统计学等方面的发展,普遍认为人类的部分职业也逐渐被其取代。 人工智能的四个主要组成部分是:专家系统、启发式算法、自然语言处理、计算机视觉-- 维基百科

AI范围其实比较广,包括以下几种:

弱人工智能(Narrow AI):专注于特定任务,比如语音识别(Siri)、图像分类(Google Photos)。目前大部分AI都属于这一类。

强人工智能(General AI):具备通用智能,能像人类一样处理任何任务,目前还未实现,但是目前各种agent已经朝着这个方向发展了。

超人工智能(Super AI):超越人类智能的理论阶段,属于未来设想,这个大家可以大胆想象一下

AI的基础原理

希里安总结一下,大致分为这几个方面:

数据驱动:AI通过大量数据学习规律,而不是预先设定所有规则。数据是AI的“燃料”,决定了模型的性能。会用到统计学和概率论,用于从数据中提取模式。

就像小学生学拼音,得先看一堆“a o e”才知道咋读

模型与算法:AI使用数学模型(如线性回归、决策树、神经网络)来表示输入和输出之间的关系。算法则是训练模型的方法。

就像老师教你做数学题,先试着解,错了再改套路

优化与反馈:AI通过优化目标(如最小化误差)不断改进,反馈机制(如损失函数)告诉模型哪里错了,怎么改。会用到大学学过的微积分(梯度下降)和线性代数(矩阵运算)。

计算能力:AI需要强大的硬件(如GPU、TPU)来处理海量数据和复杂计算。

像你考试得有个计算器,不然光靠脑子算太慢

模拟人类智能:AI借鉴人类大脑的工作方式(如神经网络模仿神经元),但本质上是数学计算,而非生物过程。比如,一个神经元拿输入,加点“权重”(重要性),再输出个结果。

比如听老师讲课,只挑重点记下来,其他忽略

DeepSeek、豆包、ChatGPT的大致原理

像DeepSeek、豆包、ChatGPT这样的模型都属于大型语言模型(Large Language Models, LLMs),是AI的一个子领域——自然语言处理(NLP)的产物。它们的底层原理高度相似,主要是基于深度学习和Transformer架构。

1.共同基础:深度学习与神经网络

深度学习:是机器学习的一个分支,使用多层神经网络(Deep Neural Networks)处理复杂任务。

神经网络原理: 这个咱也不是专业的,看看ai的总结

  • • 由输入层、隐藏层、输出层组成
  • • 每个神经元接收输入,乘以权重,经过激活函数(如ReLU)输出
  • • 通过反向传播(Backpropagation)和梯度下降优化权重

就像工厂流水线,原料进来,加工完输出产品

2. Transformer架构

什么是Transformer:2017年谷歌提出的神经网络架构,专为处理序列数据(如文本)设计。它是现代语言模型的核心。 核心组件: 自注意力机制(Self-Attention):让模型关注输入序列中每个词与其他词的关系,动态调整重要性。 例子:句子“我爱我的猫”,模型会重点关联“我的”和“猫”,理解上下文。 数学基础:通过查询(Query)、键(Key)、值(Value)向量计算注意力分数。

它像个聪明的小孩,听你说话时知道重点抓哪

多头注意力(Multi-Head Attention):并行计算多种注意力模式,捕捉不同语义。

比如看电影,一个角度看剧情,一个角度看演员表情,综合起来更懂故事

前馈神经网络(Feed-Forward Network):对每个词的表示进一步加工。

写草稿后还要润色,加工厂把粗糙的想法变顺溜

位置编码(Positional Encoding):因为Transformer没有时间顺序概念,需额外加入词的位置信息。

这个就像记日记,得标上日期,不然分不清哪天的事儿

工作流程: 1.输入文本被分词并转为数字向量(词嵌入)

就像把汉字翻译成拼音,方便外国人读

2.Transformer处理这些向量,生成上下文相关的表示

厨师把食材(词)炒成一道菜(句子意思),调料就是注意力机制

3.输出层将表示转为可读的文本

像工厂把原料加工成成品

3. 训练过程

  • • 预训练(Pre-training):就像小孩上幼儿园,先狂背儿歌、听故事,啥都听一遍,慢慢知道“苹果”是水果,“小狗”是动物。
    • • 使用海量无标注文本(如网页、书籍),让模型学习语言的基本规律。
    • • 任务:预测遮盖的词(Masked Language Model,如BERT)或生成下一个词(Causal Language Model,如GPT)。
    • • 例子:输入“今天天气很___”,模型预测“晴朗”。
  • • 微调(Fine-tuning):像学英语,背完单词后跟老外练口语,错了就改,最后能聊得顺溜。
  • • 用特定任务的数据(如对话、问答)进一步调整模型。
  • • 损失函数:通常是交叉熵损失,衡量预测词和真实词的差距。这个还真不知道 AI自己解释:是AI训练时的一个“裁判”或者“评分表”,专门用来告诉AI它干得咋样——是做对了,还是离目标差了多远。简单说,它是衡量AI“错多少”的工具,AI靠它知道咋改进。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2025-03-26,如有侵权请联系 cloudcommunity@tencent 删除人工智能基础模型数据神经网络

发布者:admin,转转请注明出处:http://www.yc00.com/web/1748064677a4726231.html

相关推荐

  • AI是?:零基础到上路,小白一看就懂!

    希里安近日见闻不得不说,最近关于AI能力爆炸的新闻是层出不穷,我有一段时间甚至怀疑,自己所学的技术还有没有意义?现在还有必要再写文章吗,因为我所写的AI不但知道,甚至比人回答的更加详尽。以前费劲巴拉得到的知识现在只需要轻轻敲击下键盘就能轻松

    3小时前
    20

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信