标签归档:人工智能

在线学习推演模型:在不确定中追索规则的智能方式

在这个充满不确定性的世界里,几乎所有的智能系统——无论是人脑、动物、企业组织还是AI模型——都在做着一件事情:从过去的局部经验中总结出规律,去试探未来的反馈。

这种机制看似朴素,却蕴含着极为深刻的哲学与技术含义。我将它称为一种“在线学习推演模型”(Online Inductive Probing Model),并尝试从以下几个维度展开:


一、时间维度的单向性:我们只能用过去

无论是谁,都无法逃脱时间的箭头。我们做出所有判断的依据,只能是过去已发生的事。未来尚未发生,也无从取样。

更具体地说,任何推理或模型:

  • 只能使用历史数据

  • 基于有限区域的信息(空间、语义或感知范围)

  • 提出一种规则或结构

  • 并在未来遇到反馈后进行修正或淘汰

这就是最原始也最通用的学习方式。


二、无法证实,无法证伪:试探是唯一的方式

这套模型有个悖论:它既无法完全证实所推理的“规则”,也无法彻底证伪。

  • 因为未来未到,验证永远是延后的;

  • 而未来反馈往往不完全、不连续、不明确;

  • 所以,一个假说只能“暂时有效”,直到它失效。

这是一种永远在路上的认知模式。

我们只能不断“试探”:

  • 抛出预测;

  • 接受反馈;

  • 修正模型;

  • 再次预测。

这非常像贝叶斯更新,也像进化选择。你永远不能证明自己是对的,但可以不断修正偏差,靠近有效性。


三、提升学习效率的两条路径

既然这是个结构性困境,我们就只能在试探效率上下功夫。

1. 加快预测节奏:增加反馈密度

如果你能在短时间内做出更多“小预测”,哪怕是微小反馈,也能加快模型的迭代。比如:

  • 股票市场中的高频交易策略

  • 人类认知中的“快速验证小假设”

  • AI中的强化学习 agent 快速与环境互动

2. 增强感知能力:扩展输入维度

另一种方式是“装更多眼睛和耳朵”,也就是增加传感器和数据源:

  • 人工智能中,添加多模态输入(图像+语言+动作)

  • 人类学习中,去倾听他人经验、跨领域观察

  • 企业经营中,提升用户反馈、监控系统建设

本质上都是:提升输入的覆盖面与密度,从而让模型拥有更多可参考的“过去”。


四、架构的历史演进:在扩展有效 context length

从历史的视角看,人类所有关于“学习架构”的进化,本质上都围绕一个目标:延长“有效上下文”的范围

从最原始的口口相传、记忆规则,到文字、书籍、数据库、互联网,再到今天的人工智能模型(如Transformer、GPT),不断扩大的都是我们能纳入推理系统的“过去内容”。

有效 context length = 可用于决策的经验范围

AI系统里,我们从 RNN(短记忆)到 LSTM(门控记忆)到 Transformer(全局注意力),无不体现出这个趋势。

而未来的发展,也会持续提升:

  • 时间跨度(处理更久远的过去)

  • 多维感知(整合更多形式的信息)

  • 状态空间(建模更复杂的外部世界)


五、但 context 的扩大,也带来副作用

需要注意的是,并非“context 越长越好”。以下风险会随之而来:

  • 过拟合历史:模型过度相信过去规律,错失变化信号

  • 响应迟缓:记忆过重会拖慢反应速度

  • 信息冗余:噪音累积,信号反而稀释

所以,任何智能系统都需要在记忆 vs 适应之间做动态平衡。


六、从本质看:这是所有智能的底层模式

你会发现,无论人类思维、公司决策,还是AI系统,几乎都遵循这个通用架构:

有限经验 → 提出模式 → 未来验证 → 反馈修正

这就是一种“后验智能”(post-hoc intelligence),在无法预知中不断调整自己,从而适应未来。

而“智能”的本质,可能就只是:

  • 提出合理假设的能力;

  • 快速验证假设的能力;

  • 容忍错误并及时调整的能力。


七、未来方向:更快、更广、更精准

我们真正要追求的,或许是这三点:

  1. 更快的反馈循环:从年级考试 → 每日小测 → 实时眼动追踪;

  2. 更广的感知范围:从单一维度 → 多模态融合;

  3. 更精准的上下文建模:从纯数据 → 意义结构图谱。

也许这正是智能系统未来的发展路径。


小结:命名与比喻

我们可以为这种结构起个名字,比如:

  • 试探式智能(Probe-based Intelligence)

  • 后验推演模型(Post-hoc Inference Model)

  • 时间盲测系统(Temporal Blind Probing)

  • 延迟反馈学习架构(Delayed Feedback Learning Architecture)

它就像:

  • 在雾中行走,靠回声定位;

  • 在黑箱前试按按钮,根据灯光变化理解机制;

  • 或者像盲人摸象,每一次触摸都是一次推理。

这是不完美的,但确实是所有智能体正在使用的最现实方式

发表在 人工智能 | 标签为 , , | 评论关闭

测试和分析auto-gpt0.3

上一次测试auto-gpt0.2.2,发现1:不停地重复在网上找和下载文件,结果还是没有能力把指定文件下载下来。
2:我手动下载了文件,让它读取分析,发现读了之后马上报错自动退出了。说是提交给openai的token超字数了。。。

今天我又配置了当前最新的stable 0.3 auto-gpt,还是测试同样的任务,让它整理《红楼梦》中的小说人物关系图谱。
首先,发现下载文件还是下载不了。跟0.2.2很像。
没办法,我手动下载了文件给它。
然后,发现它执行代码一定要在docker运行。我查了代码,修改成直接可以运行了。
又然后,我发现它一直想执行还没保存的代码文件,我通过对话提示它先写好代码文件再执行文件。以后每次要执行代码我发现都要做这样的提示。显然里面有个逻辑问题。也许是execute_python_file命令应该对应一个新的文件,而execute_code应该创建一个新的文件,接的参数是代码内容,而不是文件名。操作的时候让代理先保存代码文件,然后执行。
又又然后,我发现在访问代码时,openai.error.APIConnectionError,不知道是不是网络环境问题,遇到这个问题程序就中止了。我修改了代码,让它遇到问题后重试。
最后,还是发现了tokens遇长的问题,我不知道哪里的代码又不严谨。。。到这里,愉快的一下午就快结束了。

看来这个任务还是很难完成。

目前看来,auto-gpt还十分不成熟,原因是,1里面的代码里的bugs非常多;2系统有几个如google查询,读写文件,执行代码等功能模块,但这几个模块的调动很不协调,操作很不连贯,它们的组合经常十分生疏,如同请一个有理论,但完全没有实践基础的几个技术人员一起完成一个大任务。

显然,在人工智能发展的路上,这些问题都会被解决。但现在而言,从效率角度看,在实际工作中用auto-gpt还是比较早的。auto-gpt在设计的时候,是用来完成通用任务的。我感觉现在来说,还需要很多的调整和磨合。让人工智能做不同的事,本身要学习经验。而让人工智能做重复的事,这可我感觉现阶段应该使用prompt+特定的任务代码+gpt的形式可能更实在一些。

发表在 人工智能 | 标签为 , | 评论关闭

将小爱同学(小米AI音箱)接入Home Assistant(基于红外遥控器)

小米音箱(小爱同学)做的不错,但是目前功能上还是有很多限制,比如不能启动电脑。Home assistant是一个开放的智能家居平台,集成非常多的模块,比如Wake on LAN模块就可以实现通过网线唤醒电脑的功能。可惜目前不能通过小米音箱直接连接Home Assistant。好在小爱同学兼容自家的万能遥控器,我们想到了把Home Assistant设备变成一个遥控终端,通过一个红外万能遥控器和一个红外接收器做为一个桥接中介,实现小米音箱间接控制Home Assistant平台的目的。本文参考了这个教程

需要的东西

运行Home Assistant的设备(电脑、NAS、树莓派等,我用的是树莓派2代)
红外接收器(我使用的是一个通用USB接收器,树莓派用户可以DIY一个)
小米(创米)万能红外线遥控器
小米AI音箱

给Home Assistant设备添加红外遥控接收功能

将红外接收器连接到home assistant设备上。确认红外设备存在,如

pi@raspberrypi:~ $ ls /dev/lirc0
/dev/lirc0

安装红外线收发lirc程序

pi@raspberrypi:~ $ sudo apt-get install lirc liblircclient-dev

测试红外线接收功能正常:
继续阅读

发表在 人工智能 | 标签为 , , , , , , | 一条评论