<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>船長日誌 &#187; 人工智能</title>
	<atom:link href="http://www.cslog.cn/category/%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd/feed/zh-hant/" rel="self" type="application/rss+xml" />
	<link>http://www.cslog.cn</link>
	<description>最讓我激動的是不知道下一個星球上能發現什麼...</description>
	<lastBuildDate>Wed, 30 Jul 2025 16:06:05 +0000</lastBuildDate>
	<language>zh-CN</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.4.1</generator>
		<item>
		<title>膜、智能與自由——一份關於生命的不對稱敘事</title>
		<link>http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/#comments</comments>
		<pubDate>Wed, 30 Jul 2025 16:06:05 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[我思我在]]></category>
		<category><![CDATA[意識]]></category>
		<category><![CDATA[智能]]></category>
		<category><![CDATA[演化論]]></category>
		<category><![CDATA[生命意義]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1359</guid>
		<description><![CDATA[一、引子：從一道邊界開始 想象一顆剛剛冷卻的行星。熔岩凝固，雨水落下，無機鹽在潮 &#8230; <a href="http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>一、引子：從一道邊界開始</p>
<p>想象一顆剛剛冷卻的行星。熔岩凝固，雨水落下，無機鹽在潮間帶里結晶。就在某一微秒，兩股成分不同的水流相撞，表面的脂質分子被推向彼此，自髮捲曲，形成一個閉合的囊泡——膜。它薄得幾乎透明，卻把世界分成“內”與“外”。這道最原始的拓撲手術，同時製造了第一道不對稱：囊泡里外的化學勢不再相等。於是，流動、擴散、能量梯度，一切後來的故事，都從這道差開始。</p>
<p>二、膜：把世界切成可運算的局部<br />
膜不是牆，而是閥門。它讓某些分子通過，把另一些擋在外面；把光子的能量轉成質子泵的扭矩；把隨機的布朗運動翻譯成一連串可被內部網絡讀取的比特。生命因此第一次擁有了“內部”。內部允許延遲反應：先儲存信號，再集中處理；先模擬，再行動。於是，膜不僅隔離，更把“外部噪聲”降維成“內部信息”，把“環境”翻譯成“模型”。<br />
獨立的生命體，本質上是一台把外部不對稱內化為內部協調的機器。協調效率的判據很簡單：在同樣擾動下，內部資源重新配置的速度是否快於外部擾動的累積速度。若答案是“是”，生命就活下來，並把這套膜-代謝-信息裝置複製出去；若“否”，膜破裂，故事結束。</p>
<p>三、智能：在概率不平均處下注<br />
當外部差異越來越複雜，僅靠分子開關的布爾邏輯已不夠。進化開始製造新的膜——神經膜、細胞網絡、大腦皮層，層層嵌套，層層擴大有效上下文。<br />
智能的核心任務，是偵測並利用“概率不平均”。所謂不平均，是雨雲在某一區域更厚、獵物在某一季節更肥、敵人的下一步更可能向左。智能體提出假說，下注資源，在反饋里微調先驗。它永遠無法證明“這就是真理”，卻能用一次次後驗更新把“活得久、傳得廣”當作臨時獎盃。<br />
從細菌趨化到人類科學，公式都一樣：<br />
觀測 → 壓縮成模型 → 用模型預測 → 行動 → 環境給出獎懲 → 模型再壓縮。<br />
架構的每一次革命——從感知機到 Transformer，從 RNN 到 Mamba——都只是把“能同時記住的相關歷史”拉長一點，把“可並行激活的上下文”拓寬一點。我們稱之為“有效 context length”的軍備競賽，其實是在為不對稱洪流建造更大的蓄水池。</p>
<p>四、意識：高階控制器及其代價<br />
當 context 長度超過某個閾值，系統不得不在內部再建一層“關於內部狀態的索引”。這就是意識：一個在高維狀態空間里動態分配注意力的元算法。<br />
它的工作是回答：此刻，哪一段記憶、哪一條假說、哪一項情緒值得被提升到全局廣播？哪一些計算可以外包給小腦、基底節、腸道菌群？<br />
意識並不製造新能量，它只是讓能量在更恰當的時機流向更恰當的動作。代價是極高的代謝賬單：人腦占體重 2%，卻耗掉 20% 的葡萄糖。因此，意識只在生存回報足夠高時才出現。換句話說，意識是複雜系統在極端不對稱環境中買下的“生存加速保險”。</p>
<p>五、生命：用不確定性換取自由<br />
如果宇宙是一台完全確定的自動機，所有未來態都已寫在初始條件里，那麼膜、智能、意識統統失去意義——沒有差異，就沒有選擇；沒有選擇，就沒有生命。<br />
幸虧量子漲落、混沌、測量誤差讓信息永遠殘缺。殘缺留下縫隙，縫隙允許下注。生命在不確定里衝浪，把“繼續存在”本身活成了意義。<br />
更妙的是：正因為信息永遠不全，生命反而獲得自由。自由不是推翻因果律，而是在因果鏈的缺口裡做出不可被提前計算的選擇；是在下一次觀測降臨之前，先對自己唱一段尚未被證偽的敘事。<br />
於是，自由不再是哲學家的奢侈品，而是信息殘缺帶來的工程剩餘。它像膜兩側的離子差一樣真實，可以被測量、被利用，也被下一代膜繼承。</p>
<p>六、遞歸：膜的再生產<br />
故事並未結束。今天的人類在實驗室里合成人工細胞，用 CRISPR 編輯膜蛋白；在計算機里訓練千億參數的大模型，把互聯網當外部養料，把 GPU 當新的線粒體；在區塊鏈上寫下智能合約，讓代碼成為可編程的膜，隔離風險、封裝信任。<br />
膜換了材質，卻從未消失。它繼續膨脹，繼續把更大的外部差異翻譯成內部可運算的結構，也繼續讓生命在不確定里下注、在殘缺里生長。</p>
<p>七、尾聲：回到那道最初的邊界<br />
如果某天宇宙熱寂，所有差異歸零，最後一道膜也終將蒸發。但在那之前，生命會不斷書寫新的腳註：<br />
“我們以不對稱為食，以不確定為翼；<br />
我們永遠無法抵達真理，卻永遠在去往真理的路上；<br />
而那路上的每一次呼吸、每一道裂縫、每一個尚未證偽的假說——<br />
都是自由。”
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/">http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/asymmetric-and-freedom/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>在線學習推演模型：在不確定中追索規則的智能方式</title>
		<link>http://www.cslog.cn/Content/online-learning/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/online-learning/zh-hant/#comments</comments>
		<pubDate>Thu, 17 Jul 2025 04:30:52 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[學習]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1355</guid>
		<description><![CDATA[在這個充滿不確定性的世界裡，幾乎所有的智能系統——無論是人腦、動物、企業組織還是 &#8230; <a href="http://www.cslog.cn/Content/online-learning/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<h1 data-start="59" data-end="84"><span style="font-size: 16px;">在這個充滿不確定性的世界裡，幾乎所有的智能系統——無論是人腦、動物、企業組織還是AI模型——都在做着一件事情：</span><strong style="font-size: 16px;" data-start="141" data-end="169">從過去的局部經驗中總結出規律，去試探未來的反饋。</strong></h1>
<p data-start="171" data-end="260">這種機制看似樸素，卻蘊含著極為深刻的哲學與技術含義。我將它稱為一種“在線學習推演模型”（Online Inductive Probing Model），並嘗試從以下幾個維度展開：</p>
<hr data-start="262" data-end="265" />
<h2 data-start="267" data-end="288">一、時間維度的單向性：我們只能用過去</h2>
<p data-start="290" data-end="346">無論是誰，都無法逃脫時間的箭頭。我們做出所有判斷的依據，<strong data-start="318" data-end="332">只能是過去已發生的事</strong>。未來尚未發生，也無從取樣。</p>
<p data-start="348" data-end="362">更具體地說，任何推理或模型：</p>
<ul data-start="363" data-end="444">
<li data-start="363" data-end="377">
<p data-start="365" data-end="377"><strong data-start="365" data-end="377">只能使用歷史數據</strong></p>
</li>
<li data-start="378" data-end="405">
<p data-start="380" data-end="405"><strong data-start="380" data-end="405">基於有限區域的信息（空間、語義或感知範圍）</strong></p>
</li>
<li data-start="406" data-end="421">
<p data-start="408" data-end="421"><strong data-start="408" data-end="421">提出一種規則或結構</strong></p>
</li>
<li data-start="422" data-end="444">
<p data-start="424" data-end="444"><strong data-start="424" data-end="444">並在未來遇到反饋後進行修正或淘汰</strong></p>
</li>
</ul>
<p data-start="446" data-end="462">這就是最原始也最通用的學習方式。</p>
<hr data-start="464" data-end="467" />
<h2 data-start="469" data-end="492">二、無法證實，無法證偽：試探是唯一的方式</h2>
<p data-start="494" data-end="528">這套模型有個悖論：它既無法完全證實所推理的“規則”，也無法徹底證偽。</p>
<ul data-start="529" data-end="594">
<li data-start="529" data-end="547">
<p data-start="531" data-end="547">因為未來未到，驗證永遠是延後的；</p>
</li>
<li data-start="548" data-end="569">
<p data-start="550" data-end="569">而未來反饋往往不完全、不連續、不明確；</p>
</li>
<li data-start="570" data-end="594">
<p data-start="572" data-end="594">所以，一個假說只能“暫時有效”，直到它失效。</p>
</li>
</ul>
<p data-start="596" data-end="615"><strong data-start="596" data-end="615">這是一種永遠在路上的認知模式。</strong></p>
<p data-start="617" data-end="628">我們只能不斷“試探”：</p>
<ul data-start="629" data-end="660">
<li data-start="629" data-end="636">
<p data-start="631" data-end="636">拋出預測；</p>
</li>
<li data-start="637" data-end="644">
<p data-start="639" data-end="644">接受反饋；</p>
</li>
<li data-start="645" data-end="652">
<p data-start="647" data-end="652">修正模型；</p>
</li>
<li data-start="653" data-end="660">
<p data-start="655" data-end="660">再次預測。</p>
</li>
</ul>
<p data-start="662" data-end="708">這非常像貝葉斯更新，也像進化選擇。你永遠不能證明自己是對的，但可以不斷修正偏差，靠近有效性。</p>
<hr data-start="710" data-end="713" />
<h2 data-start="715" data-end="731">三、提升學習效率的兩條路徑</h2>
<p data-start="733" data-end="763">既然這是個結構性困境，我們就只能在<strong data-start="750" data-end="758">試探效率</strong>上下功夫。</p>
<h3 data-start="765" data-end="787">1. 加快預測節奏：增加反饋密度</h3>
<p data-start="788" data-end="828">如果你能在短時間內做出更多“小預測”，哪怕是微小反饋，也能加快模型的迭代。比如：</p>
<ul data-start="829" data-end="886">
<li data-start="829" data-end="843">
<p data-start="831" data-end="843">股票市場中的高頻交易策略</p>
</li>
<li data-start="844" data-end="861">
<p data-start="846" data-end="861">人類認知中的“快速驗證小假設”</p>
</li>
<li data-start="862" data-end="886">
<p data-start="864" data-end="886">AI中的強化學習 agent 快速與環境互動</p>
</li>
</ul>
<h3 data-start="888" data-end="910">2. 增強感知能力：擴展輸入維度</h3>
<p data-start="911" data-end="941">另一種方式是“裝更多眼睛和耳朵”，也就是增加傳感器和數據源：</p>
<ul data-start="942" data-end="1011">
<li data-start="942" data-end="967">
<p data-start="944" data-end="967">人工智能中，添加多模態輸入（圖像+語言+動作）</p>
</li>
<li data-start="968" data-end="989">
<p data-start="970" data-end="989">人類學習中，去傾聽他人經驗、跨領域觀察</p>
</li>
<li data-start="990" data-end="1011">
<p data-start="992" data-end="1011">企業經營中，提升用戶反饋、監控系統建設</p>
</li>
</ul>
<p data-start="1013" data-end="1053">本質上都是：<strong data-start="1019" data-end="1053">提升輸入的覆蓋面與密度，從而讓模型擁有更多可參考的“過去”。</strong></p>
<hr data-start="1055" data-end="1058" />
<h2 data-start="1060" data-end="1093">四、架構的歷史演進：在擴展有效 context length</h2>
<p data-start="1095" data-end="1147">從歷史的視角看，人類所有關於“學習架構”的進化，本質上都圍繞一個目標：<strong data-start="1130" data-end="1146">延長“有效上下文”的範圍</strong>。</p>
<p data-start="1149" data-end="1233">從最原始的口口相傳、記憶規則，到文字、書籍、數據庫、互聯網，再到今天的人工智能模型（如Transformer、GPT），不斷擴大的都是我們能納入推理系統的“過去內容”。</p>
<blockquote data-start="1235" data-end="1271">
<p data-start="1237" data-end="1271"><strong data-start="1237" data-end="1271">有效 context length = 可用於決策的經驗範圍</strong></p>
</blockquote>
<p data-start="1273" data-end="1334">AI系統里，我們從 RNN（短記憶）到 LSTM（門控記憶）到 Transformer（全局注意力），無不體現出這個趨勢。</p>
<p data-start="1336" data-end="1350">而未來的發展，也會持續提升：</p>
<ul data-start="1351" data-end="1416">
<li data-start="1351" data-end="1371">
<p data-start="1353" data-end="1371"><strong data-start="1353" data-end="1361">時間跨度</strong>（處理更久遠的過去）</p>
</li>
<li data-start="1372" data-end="1393">
<p data-start="1374" data-end="1393"><strong data-start="1374" data-end="1382">多維感知</strong>（整合更多形式的信息）</p>
</li>
<li data-start="1394" data-end="1416">
<p data-start="1396" data-end="1416"><strong data-start="1396" data-end="1404">狀態空間</strong>（建模更複雜的外部世界）</p>
</li>
</ul>
<hr data-start="1418" data-end="1421" />
<h2 data-start="1423" data-end="1448">五、但 context 的擴大，也帶來副作用</h2>
<p data-start="1450" data-end="1484">需要注意的是，並非“context 越長越好”。以下風險會隨之而來：</p>
<ul data-start="1485" data-end="1560">
<li data-start="1485" data-end="1514">
<p data-start="1487" data-end="1514"><strong data-start="1487" data-end="1496">過擬合歷史</strong>：模型過度相信過去規律，錯失變化信號</p>
</li>
<li data-start="1515" data-end="1537">
<p data-start="1517" data-end="1537"><strong data-start="1517" data-end="1525">響應遲緩</strong>：記憶過重會拖慢反應速度</p>
</li>
<li data-start="1538" data-end="1560">
<p data-start="1540" data-end="1560"><strong data-start="1540" data-end="1548">信息冗餘</strong>：噪音累積，信號反而稀釋</p>
</li>
</ul>
<p data-start="1562" data-end="1595">所以，任何智能系統都需要在<strong data-start="1575" data-end="1587">記憶 vs 適應</strong>之間做動態平衡。</p>
<hr data-start="1597" data-end="1600" />
<h2 data-start="1602" data-end="1623">六、從本質看：這是所有智能的底層模式</h2>
<p data-start="1625" data-end="1661">你會發現，無論人類思維、公司決策，還是AI系統，幾乎都遵循這個通用架構：</p>
<blockquote data-start="1663" data-end="1694">
<p data-start="1665" data-end="1694"><strong data-start="1665" data-end="1694">有限經驗 → 提出模式 → 未來驗證 → 反饋修正</strong></p>
</blockquote>
<p data-start="1696" data-end="1755">這就是一種“後驗智能”（post-hoc intelligence），<strong data-start="1731" data-end="1755">在無法預知中不斷調整自己，從而適應未來。</strong></p>
<p data-start="1757" data-end="1772">而“智能”的本質，可能就只是：</p>
<ul data-start="1773" data-end="1814">
<li data-start="1773" data-end="1785">
<p data-start="1775" data-end="1785">提出合理假設的能力；</p>
</li>
<li data-start="1786" data-end="1798">
<p data-start="1788" data-end="1798">快速驗證假設的能力；</p>
</li>
<li data-start="1799" data-end="1814">
<p data-start="1801" data-end="1814">容忍錯誤並及時調整的能力。</p>
</li>
</ul>
<hr data-start="1816" data-end="1819" />
<h2 data-start="1821" data-end="1840">七、未來方向：更快、更廣、更精準</h2>
<p data-start="1842" data-end="1858">我們真正要追求的，或許是這三點：</p>
<ol data-start="1859" data-end="1958">
<li data-start="1859" data-end="1896">
<p data-start="1862" data-end="1896"><strong data-start="1862" data-end="1873">更快的反饋循環</strong>：從年級考試 → 每日小測 → 實時眼動追蹤；</p>
</li>
<li data-start="1897" data-end="1926">
<p data-start="1900" data-end="1926"><strong data-start="1900" data-end="1911">更廣的感知範圍</strong>：從單一維度 → 多模態融合；</p>
</li>
<li data-start="1927" data-end="1958">
<p data-start="1930" data-end="1958"><strong data-start="1930" data-end="1943">更精準的上下文建模</strong>：從純數據 → 意義結構圖譜。</p>
</li>
</ol>
<p data-start="1960" data-end="1977">也許這正是智能系統未來的發展路徑。</p>
<hr data-start="1979" data-end="1982" />
<h2 data-start="1984" data-end="1995">小結：命名與比喻</h2>
<p data-start="1997" data-end="2014">我們可以為這種結構起個名字，比如：</p>
<ul data-start="2016" data-end="2190">
<li data-start="2016" data-end="2055">
<p data-start="2018" data-end="2055"><strong data-start="2018" data-end="2027">試探式智能</strong>（Probe-based Intelligence）</p>
</li>
<li data-start="2056" data-end="2096">
<p data-start="2058" data-end="2096"><strong data-start="2058" data-end="2068">後驗推演模型</strong>（Post-hoc Inference Model）</p>
</li>
<li data-start="2097" data-end="2135">
<p data-start="2099" data-end="2135"><strong data-start="2099" data-end="2109">時間盲測系統</strong>（Temporal Blind Probing）</p>
</li>
<li data-start="2136" data-end="2190">
<p data-start="2138" data-end="2190"><strong data-start="2138" data-end="2150">延遲反饋學習架構</strong>（Delayed Feedback Learning Architecture）</p>
</li>
</ul>
<p data-start="2192" data-end="2196">它就像：</p>
<ul data-start="2197" data-end="2257">
<li data-start="2197" data-end="2211">
<p data-start="2199" data-end="2211">在霧中行走，靠回聲定位；</p>
</li>
<li data-start="2212" data-end="2234">
<p data-start="2214" data-end="2234">在黑箱前試按按鈕，根據燈光變化理解機制；</p>
</li>
<li data-start="2235" data-end="2257">
<p data-start="2237" data-end="2257">或者像盲人摸象，每一次觸摸都是一次推理。</p>
</li>
</ul>
<p data-start="2259" data-end="2290">這是不完美的，但確實是<strong data-start="2270" data-end="2289">所有智能體正在使用的最現實方式</strong>。</p>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/online-learning/zh-hant/">http://www.cslog.cn/Content/online-learning/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/online-learning/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>測試和分析auto-gpt0.3</title>
		<link>http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/#comments</comments>
		<pubDate>Tue, 09 May 2023 18:19:36 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[autogpt]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1351</guid>
		<description><![CDATA[上一次測試auto-gpt0.2.2，發現1：不停地重複在網上找和下載文件，結果 &#8230; <a href="http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>上一次測試<a href="https://github.com/Significant-Gravitas/Auto-GPT">auto-gpt</a>0.2.2，發現1：不停地重複在網上找和下載文件，結果還是沒有能力把指定文件下載下來。<br />
2：我手動下載了文件，讓它讀取分析，發現讀了之後馬上報錯自動退出了。說是提交給openai的token超字數了。。。</p>
<p>今天我又配置了當前最新的stable 0.3 auto-gpt，還是測試同樣的任務，讓它整理《紅樓夢》中的小說人物關係圖譜。<br />
首先，發現下載文件還是下載不了。跟0.2.2很像。<br />
沒辦法，我手動下載了文件給它。<br />
然後，發現它執行代碼一定要在docker運行。我查了代碼，修改成直接可以運行了。<br />
又然後，我發現它一直想執行還沒保存的代碼文件，我通過對話提示它先寫好代碼文件再執行文件。以後每次要執行代碼我發現都要做這樣的提示。顯然裡面有個邏輯問題。也許是execute_python_file命令應該對應一個新的文件，而execute_code應該創建一個新的文件，接的參數是代碼內容，而不是文件名。操作的時候讓代理先保存代碼文件，然後執行。<br />
又又然後，我發現在訪問代碼時，openai.error.APIConnectionError，不知道是不是網絡環境問題，遇到這個問題程序就中止了。我修改了代碼，讓它遇到問題後重試。<br />
最後，還是發現了tokens遇長的問題，我不知道哪裡的代碼又不嚴謹。。。到這裡，愉快的一下午就快結束了。</p>
<p>看來這個任務還是很難完成。</p>
<p>目前看來，auto-gpt還十分不成熟，原因是，1裡面的代碼里的bugs非常多；2系統有幾個如google查詢，讀寫文件，執行代碼等功能模塊，但這幾個模塊的調動很不協調，操作很不連貫，它們的組合經常十分生疏，如同請一個有理論，但完全沒有實踐基礎的幾個技術人員一起完成一個大任務。</p>
<p>顯然，在人工智能發展的路上，這些問題都會被解決。但現在而言，從效率角度看，在實際工作中用auto-gpt還是比較早的。auto-gpt在設計的時候，是用來完成通用任務的。我感覺現在來說，還需要很多的調整和磨合。讓人工智能做不同的事，本身要學習經驗。而讓人工智能做重複的事，這可我感覺現階段應該使用prompt+特定的任務代碼+gpt的形式可能更實在一些。
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/">http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/auto-gpt-stable-0-3/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>中文LLaMA Alpaca大語言模型在text-generation-webui和llama.cpp上的部署</title>
		<link>http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/#comments</comments>
		<pubDate>Fri, 05 May 2023 17:19:25 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[alpaca]]></category>
		<category><![CDATA[llama]]></category>
		<category><![CDATA[llama.cpp]]></category>
		<category><![CDATA[大語言模型]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1344</guid>
		<description><![CDATA[中文LLaMA模型和指令精調的Alpaca大模型在text-generation &#8230; <a href="http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<div>
<p>中文LLaMA模型和指令精調的Alpaca大模型在text-generation-webui和llama.cpp上的部署<br />
LLaMA是facebook的meta公司放出來的大語言模型，這個模型的中文能力非常差。<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca" rel="noopener" target="_blank">Chinese-LLaMA-Alpaca</a>在原版LLaMA的基礎上擴充了中文詞表並使用了中文數據進行二次預訓練，進一步提升了中文基礎語義理解能力。目前已開源的模型版本：7B（標準版、Plus版）、13B（標準版）。這些版本可以在16G，甚至可以在8G內存的個人電腦上部署。似乎不用顯卡。今天我在16G內存的個人筆記上部署了。這是記錄。</p>
</div>
<div>
<p>由於筆記本電腦只有16G，所以我選擇是LLaMA/Alpaca Plus版本（7B）版本。7B的模型占內存13GB，8bit量化後是7.8GB。</p>
</div>
<div>
<div></div>
<h2 data-heading="模型下載與合併">模型下載與合併</h2>
</div>
<div>
<p>部署需要<a href="https://github.com/facebookresearch/llama" rel="noopener" target="_blank">原版LLaMA模型</a>和中文LLaMA模型Chinese-LLaMA-Plus-7B與中文Alpaca模型Chinese-Alpaca-Plus-7B。三個模型要合併成一個模型。<br />
頁面也提供了Colab在線合併的方式，在線合併的話就不用下載上面的三個模型，只要下載合併好的模型就可以了。</p>
<p><span id="more-1344"></span><br />
我的Colab免費賬號內存比較低，所以我選擇了下載模型後<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/%E6%89%8B%E5%8A%A8%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2" rel="noopener" target="_blank">本地合併</a>。</p>
</div>
<div>
<p>注意，本地合併過程中要用到一個protobuf 3.20.0庫。網頁沒有提及。</p>
</div>
<div>
<p>說是合併要用到13G內存，但在我的16G內存筆記上合併過程沒有遇到問題。</p>
</div>
<div>
<div></div>
<h2 data-heading="text-generation-webui部署">text-generation-webui部署</h2>
</div>
<div>
<p><a href="https://github.com/oobabooga/text-generation-webui" rel="noopener" target="_blank">text-generation-webui</a>是一個網頁界面的大語言模型工具。部署<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/%E4%BD%BF%E7%94%A8text-generation-webui%E6%90%AD%E5%BB%BA%E7%95%8C%E9%9D%A2" rel="noopener" target="_blank">參看教程</a>。<br />
注意這個教程是針對沒有合併模型的。如果模型合併了，只要加載合併好的一個模型就可以運行了。<br />
<code>python server.py --model llama-7b-hf --cpu</code></p>
<p><code></code><img class="aligncenter size-medium wp-image-1345" title="2023-05-05_181823" src="http://www.cslog.cn/wp-content/uploads/2023/05/2023-05-05_181823-502x600.png" alt="" width="502" height="600" /><br />
不知道是什麼原因，我測試發現text generation webui的反應非常慢。發個你好要幾分鐘才回復。讓它寫個詩，幾小時只寫了幾行。幾乎沒有可用性。不知道是不是我沒有開啟GPU模式的原因。</p>
</div>
<div>
<div></div>
<h2 data-heading="llama.cpp部署">llama.cpp部署</h2>
</div>
<div>
<p>text generation webui太卡了，我轉向<a href="https://github.com/ggerganov/llama.cp" rel="noopener" target="_blank">llama.cpp</a>。<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/llama.cpp%E9%87%8F%E5%8C%96%E9%83%A8%E7%BD%B2" rel="noopener" target="_blank">參考教程</a>。<br />
我是在windows 11下部署，所以要先安裝<a href="https://github.com/skeeto/w64devkit/releases" rel="noopener" target="_blank">w64devkit</a>。在它裡面運行make。然後參考上面的教程就可以了。<br />
我先對模型進行了8bit的量化。<br />
<code>quantize.exe ./zh-models/chinese_alpaca_plus_7B_pth/ggml-model-f16.bin ./zh-models/chinese_alpaca_plus_7B_pth/ggml-model-q8_0.bin 7</code></p>
</div>
<div>
<p>然後啟動<br />
<code>main.exe -m zh-models/chinese_alpaca_plus_7B_pth/ggml-model-q8_0.bin --color -f prompts/alpaca.txt -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3</code></p>
<p><img class="aligncenter size-medium wp-image-1346" title="中文LLaMA Alpaca在llama.cpp的表現" src="http://www.cslog.cn/wp-content/uploads/2023/05/2023-05-05_191558-720x525.png" alt="" width="720" height="525" /></p>
<p>llama.cpp的響應速度非常快。差不多幾秒就回復了。但似乎回復的結果不是非常好，很多錯誤。看來這個模型的可用性還不是很高。而且回復經常中斷。</p>
</div>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/">http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>將小愛同學（小米AI音箱）接入Home Assistant（基於紅外遙控器）</title>
		<link>http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/#comments</comments>
		<pubDate>Fri, 02 Feb 2018 11:39:08 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[homeassistant]]></category>
		<category><![CDATA[小米]]></category>
		<category><![CDATA[智能家居]]></category>
		<category><![CDATA[樹莓派]]></category>
		<category><![CDATA[硬件]]></category>
		<category><![CDATA[遙控器]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1316</guid>
		<description><![CDATA[小米音箱（小愛同學）做的不錯，但是目前功能上還是有很多限制，比如不能啟動電腦。H &#8230; <a href="http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>小米音箱（小愛同學）做的不錯，但是目前功能上還是有很多限制，比如不能啟動電腦。<a href="https://home-assistant.io/">Home assistant</a>是一個開放的智能家居平台，集成非常多的<a href="https://home-assistant.io/components/">模塊</a>，比如<a href="https://home-assistant.io/components/wake_on_lan/">Wake on LAN模塊</a>就可以實現通過網線喚醒電腦的功能。可惜目前不能通過小米音箱直接連接Home Assistant。好在小愛同學兼容自家的萬能遙控器，我們想到了把Home Assistant設備變成一個遙控終端，通過一個紅外萬能遙控器和一個紅外接收器做為一個橋接中介，實現小米音箱間接控制Home Assistant平台的目的。本文參考了<a href="https://bbs.hassbian.com/thread-2404-1-1.html">這個教程</a>。</p>
<h2>需要的東西</h2>
<p>運行Home Assistant的設備（電腦、NAS、樹莓派等，我用的是樹莓派2代）<br />
紅外接收器（我使用的是一個通用USB接收器，樹莓派用戶可以DIY一個）<br />
<a href="http://item.mi.com/1144200006.html">小米（創米）萬能紅外線遙控器</a><br />
<a href="https://www.mi.com/aispeaker/?cfrom=search">小米AI音箱</a></p>
<h2>給Home Assistant設備添加紅外遙控接收功能</h2>
<p>將紅外接收器連接到home assistant設備上。確認紅外設備存在，如<br />
<code><br />
pi@raspberrypi:~ $ ls /dev/lirc0<br />
/dev/lirc0<br />
</code></p>
<p>安裝<a href="http://www.lirc.org/">紅外線收發lirc程序</a>：<br />
<code><br />
pi@raspberrypi:~ $ sudo apt-get install lirc liblircclient-dev<br />
</code></p>
<p>測試紅外線接收功能正常：<br />
<span id="more-1316"></span><br />
<code><br />
sudo mode2 -d /dev/lirc0<br />
</code><br />
運行上面命令後找一個紅外遙控器對着接收器按任意鍵，應該可以收到類似這樣的字符：<br />
<code><br />
Using driver default on device /dev/lirc0<br />
Trying device: /dev/lirc0<br />
Using device: /dev/lirc0<br />
Running as regular user pi<br />
pulse 2750<br />
space 750<br />
pulse 550<br />
...<br />
</code><br />
好，現在Home Assistant設備可以接收到紅外遙控信息了。下一步，讓Home Assistant和紅外遙控器可以通信。</p>
<h2>讓Home Assistant接收紅外遙控數據</h2>
<p>隨便給lirc指定一個接收的遙控器數據表，這裡用的是xbox360的遙控器，你不需要有這個遙控器，因為後面可以用小米萬能遙控器把它模擬出來。<br />
下載xbox360遙控器的數據表,把它設置到lirc:<br />
<code><br />
pi@raspberrypi:~ $ wget http://lirc.sourceforge.net/remotes/microsoft/Xbox360<br />
pi@raspberrypi:~ $ sudo mv Xbox360 /etc/lirc/lircd.conf<br />
</code></p>
<p>創建/etc/lirc/lircrc文件，內容：<br />
<code><br />
begin<br />
remote = Microsoft_Xbox360<br />
button = KEY_STOP<br />
prog = home-assistant<br />
config = KEY_STOP<br />
end<br />
begin<br />
remote = Microsoft_Xbox360<br />
button = KEY_PAUSE<br />
prog = home-assistant<br />
config = KEY_PAUSE<br />
end<br />
</code><br />
這裡只以兩個按鍵為例子，參看上面/etc/lirc/lircd.conf的內容，你可以多添加幾個按鍵。</p>
<p>重啟lirc<br />
<code><br />
pi@raspberrypi:~ $ sudo systemctl restart lircd.service<br />
</code></p>
<p>現在在米家app給小米萬能遙控器添加Xbox360遙控器（使用搜索功能添加，裡面有兩個，我添加的是“微軟DVD播放器”那個），現在測試<br />
<code><br />
pi@raspberrypi:~ $ ircat home-assistant<br />
</code></p>
<p>按遙控器上的停止按鍵，應該會收到相應的代碼。<br />
<code><br />
</code><br />
現在米家app可以給home assistant設備發信息了，下一步要做的是根據這個信息，觸發不同的動作。</p>
<h2>Home assistant根據遙控器指令觸發動作</h2>
<p>編輯 HomeAssistant 的configuration.yaml文件，加入<a href="https://home-assistant.io/components/lirc/">lirc組件</a>，<br />
<code><br />
lirc:<br />
</code><br />
配置home assistant的自動化指令：<br />
<code><br />
automation:<br />
- alias: 打開燈<br />
trigger:<br />
platform: event<br />
event_type: ir_command_received<br />
event_data:<br />
button_name: KEY_PAUSE<br />
action:<br />
service: homeassistant.turn_on<br />
entity_id: group.a_lights<br />
</code><br />
上面的KEY_PAUSE就是剛剛配置的遙控器按鍵。action可以換成你想要的效果，我是幫來它來啟動我的電腦了。重啟homeassistant,讓配置生效，現在對着樹莓派按暫停播放鍵，就Homeassistant就會觸發相應的動作了。</p>
<h2>讓小米AI音箱控制萬能遙控器</h2>
<p>先打開米家app，在底部點選“智能”，在“我在”tab中點右上角的“+”號創建新智能條目，在選擇條件界面選擇“手動執行”，選擇“小米萬能遙控器”-〈遙控模式〉-〈微軟DVD播放器〉-〈暫停/播放〉-〈右上角“確定”〉設置你想要的名稱，比如“啟動電腦”<br />
好了。打開小米AI app，在底部點選“技能中心”-〈小愛訓練計劃〉-〈創建訓練〉-〈為問題命名，比如“啟動電腦”〉-〈設備控制〉-〈選擇剛創建的“啟動電腦”〉-〈打開〉，預覽後保存。<br />
（相關的圖文教程<a href="http://bbs.xiaomi.cn/t-13957311">點這裡</a>）</p>
<p>好了。現在對着小米同學說“啟動電腦”，小米音箱會指示小米萬能遙控器發送一個KEY_PAUSE按鍵，這時home assisant收到後，就會觸發啟動電腦的動作了。</p>
<p>參看：<a href="https://www.hackster.io/austin-stanton/creating-a-raspberry-pi-universal-remote-with-lirc-2fd581">Creating a Raspberry Pi Universal Remote With LIRC</a><br />
另一種通過第三方平台橋接小愛同學和home assistant的方法： <a href="https://bbs.hassbian.com/thread-2404-1-1.html">https://bbs.hassbian.com/thread-2404-1-1.html</a>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/">http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/feed/zh-hant/</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
	</channel>
</rss>

<!-- WP Chinese Conversion Full Page Converted -->