脑认知启发的人工智能(Brain Cognition Inspired Artificial Intelligence)
———— 王国胤 重庆师范大学
当前脑认知启发的人工智能的限制
- 硬件实现层
- 符号和规则
- 传感器和控制器
- 人工神经元和神经连接
- 算法层
- 知识库
- 预测行为模型 *人工神经网络
- 计算理论层
- 通过推理引擎
- 通过交互
- 神经计算
人脑与人工神经网络的不同学习过程
抽象数学模型 ————> 获取数据 ————————————————————> 训练模型和优化 <—————— 历史数据
特征预处理和选择 |
|
⬇
未知属性
人工智能和人脑系统的区别
大脑 LLM
| |
有无心理语言 有 有
|
存在心理语言到自然语言的过度
识别外界 从轮廓到细节 由细到粗
举例: sora文生图或视频,能生成模型和产品,但是无法判断其正确性 ———— 李飞飞团队研究一种新技术,能够给AI生成的产物,附加自然属性,或者说是让生成的图片和视频更符合客观自然世界的规律(这是原来大模型没有做到的)
J:变异层。 什么是混合的溶解性和禁欲性? 用推理机实现智能用推理机实现智能用推理机实现智能用推理机实现智能用推理机实现智能2:表示与算法层如何实现计算? 中央神经系统知识基础感知-行动模型人工神经网络硬件实现层计算的物理细节是什么? 一般的神经元和系统лopscsSymbols和传感器和控制器人工神经元和神经连接brab最近的符号,符号,符号,符号,符号,符号,符号,符号,符号,符号
tips
人工智能 VS 人脑系统
NLI:自然语言推理(Natural Language Inference)
- MRC 优于 NLI
CoT:链式思维(Chain of Thought),有时候给模型加上这一个小点,提升优化明显
- 它通过将问题分解为多个步骤或思考链条,帮助模型在进行复杂推理时更加清晰和系统。
小模型更适合特定任务的理解,大模型更适用于多场景、多任务的适应
- 实际应用中应该考虑小模型和大模型结合的方式能够有更好的优化
现阶段难点:通用领域的因果性
强化学习
- 通过与环境的互动来学习如何采取行动,以最大化长期的回报。(openai o1和o3)
逻辑推理
- AIGC
- 因果 ———— 人类
- 统计 ———— 大模型
- 数据治理
- 在逻辑推理中的数据治理中,POS(Positive)和NEG(Negative)通常指的是数据中的正向(积极)和负向(消极)样本或情形。这类数据治理工作主要关注如何识别、处理、平衡这些数据,以提高推理的准确性和模型的健壮性。以下是一些处理POS和NEG数据的关键步骤和方法:
- 数据预处理与清洗
- 标签一致性检查
- 特征工程与分离
- 在逻辑推理中的数据治理中,POS(Positive)和NEG(Negative)通常指的是数据中的正向(积极)和负向(消极)样本或情形。这类数据治理工作主要关注如何识别、处理、平衡这些数据,以提高推理的准确性和模型的健壮性。以下是一些处理POS和NEG数据的关键步骤和方法:
- AIGC
