<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>船長日誌 &#187; 船長</title>
	<atom:link href="http://www.cslog.cn/Content/author/admin/feed/zh-hant/" rel="self" type="application/rss+xml" />
	<link>http://www.cslog.cn</link>
	<description>最讓我激動的是不知道下一個星球上能發現什麼...</description>
	<lastBuildDate>Wed, 30 Jul 2025 16:06:05 +0000</lastBuildDate>
	<language>zh-CN</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.4.1</generator>
		<item>
		<title>膜、智能與自由——一份關於生命的不對稱敘事</title>
		<link>http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/#comments</comments>
		<pubDate>Wed, 30 Jul 2025 16:06:05 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[我思我在]]></category>
		<category><![CDATA[意識]]></category>
		<category><![CDATA[智能]]></category>
		<category><![CDATA[演化論]]></category>
		<category><![CDATA[生命意義]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1359</guid>
		<description><![CDATA[一、引子：從一道邊界開始 想象一顆剛剛冷卻的行星。熔岩凝固，雨水落下，無機鹽在潮 &#8230; <a href="http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>一、引子：從一道邊界開始</p>
<p>想象一顆剛剛冷卻的行星。熔岩凝固，雨水落下，無機鹽在潮間帶里結晶。就在某一微秒，兩股成分不同的水流相撞，表面的脂質分子被推向彼此，自髮捲曲，形成一個閉合的囊泡——膜。它薄得幾乎透明，卻把世界分成“內”與“外”。這道最原始的拓撲手術，同時製造了第一道不對稱：囊泡里外的化學勢不再相等。於是，流動、擴散、能量梯度，一切後來的故事，都從這道差開始。</p>
<p>二、膜：把世界切成可運算的局部<br />
膜不是牆，而是閥門。它讓某些分子通過，把另一些擋在外面；把光子的能量轉成質子泵的扭矩；把隨機的布朗運動翻譯成一連串可被內部網絡讀取的比特。生命因此第一次擁有了“內部”。內部允許延遲反應：先儲存信號，再集中處理；先模擬，再行動。於是，膜不僅隔離，更把“外部噪聲”降維成“內部信息”，把“環境”翻譯成“模型”。<br />
獨立的生命體，本質上是一台把外部不對稱內化為內部協調的機器。協調效率的判據很簡單：在同樣擾動下，內部資源重新配置的速度是否快於外部擾動的累積速度。若答案是“是”，生命就活下來，並把這套膜-代謝-信息裝置複製出去；若“否”，膜破裂，故事結束。</p>
<p>三、智能：在概率不平均處下注<br />
當外部差異越來越複雜，僅靠分子開關的布爾邏輯已不夠。進化開始製造新的膜——神經膜、細胞網絡、大腦皮層，層層嵌套，層層擴大有效上下文。<br />
智能的核心任務，是偵測並利用“概率不平均”。所謂不平均，是雨雲在某一區域更厚、獵物在某一季節更肥、敵人的下一步更可能向左。智能體提出假說，下注資源，在反饋里微調先驗。它永遠無法證明“這就是真理”，卻能用一次次後驗更新把“活得久、傳得廣”當作臨時獎盃。<br />
從細菌趨化到人類科學，公式都一樣：<br />
觀測 → 壓縮成模型 → 用模型預測 → 行動 → 環境給出獎懲 → 模型再壓縮。<br />
架構的每一次革命——從感知機到 Transformer，從 RNN 到 Mamba——都只是把“能同時記住的相關歷史”拉長一點，把“可並行激活的上下文”拓寬一點。我們稱之為“有效 context length”的軍備競賽，其實是在為不對稱洪流建造更大的蓄水池。</p>
<p>四、意識：高階控制器及其代價<br />
當 context 長度超過某個閾值，系統不得不在內部再建一層“關於內部狀態的索引”。這就是意識：一個在高維狀態空間里動態分配注意力的元算法。<br />
它的工作是回答：此刻，哪一段記憶、哪一條假說、哪一項情緒值得被提升到全局廣播？哪一些計算可以外包給小腦、基底節、腸道菌群？<br />
意識並不製造新能量，它只是讓能量在更恰當的時機流向更恰當的動作。代價是極高的代謝賬單：人腦占體重 2%，卻耗掉 20% 的葡萄糖。因此，意識只在生存回報足夠高時才出現。換句話說，意識是複雜系統在極端不對稱環境中買下的“生存加速保險”。</p>
<p>五、生命：用不確定性換取自由<br />
如果宇宙是一台完全確定的自動機，所有未來態都已寫在初始條件里，那麼膜、智能、意識統統失去意義——沒有差異，就沒有選擇；沒有選擇，就沒有生命。<br />
幸虧量子漲落、混沌、測量誤差讓信息永遠殘缺。殘缺留下縫隙，縫隙允許下注。生命在不確定里衝浪，把“繼續存在”本身活成了意義。<br />
更妙的是：正因為信息永遠不全，生命反而獲得自由。自由不是推翻因果律，而是在因果鏈的缺口裡做出不可被提前計算的選擇；是在下一次觀測降臨之前，先對自己唱一段尚未被證偽的敘事。<br />
於是，自由不再是哲學家的奢侈品，而是信息殘缺帶來的工程剩餘。它像膜兩側的離子差一樣真實，可以被測量、被利用，也被下一代膜繼承。</p>
<p>六、遞歸：膜的再生產<br />
故事並未結束。今天的人類在實驗室里合成人工細胞，用 CRISPR 編輯膜蛋白；在計算機里訓練千億參數的大模型，把互聯網當外部養料，把 GPU 當新的線粒體；在區塊鏈上寫下智能合約，讓代碼成為可編程的膜，隔離風險、封裝信任。<br />
膜換了材質，卻從未消失。它繼續膨脹，繼續把更大的外部差異翻譯成內部可運算的結構，也繼續讓生命在不確定里下注、在殘缺里生長。</p>
<p>七、尾聲：回到那道最初的邊界<br />
如果某天宇宙熱寂，所有差異歸零，最後一道膜也終將蒸發。但在那之前，生命會不斷書寫新的腳註：<br />
“我們以不對稱為食，以不確定為翼；<br />
我們永遠無法抵達真理，卻永遠在去往真理的路上；<br />
而那路上的每一次呼吸、每一道裂縫、每一個尚未證偽的假說——<br />
都是自由。”
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/">http://www.cslog.cn/Content/asymmetric-and-freedom/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/asymmetric-and-freedom/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>在線學習推演模型：在不確定中追索規則的智能方式</title>
		<link>http://www.cslog.cn/Content/online-learning/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/online-learning/zh-hant/#comments</comments>
		<pubDate>Thu, 17 Jul 2025 04:30:52 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[學習]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1355</guid>
		<description><![CDATA[在這個充滿不確定性的世界裡，幾乎所有的智能系統——無論是人腦、動物、企業組織還是 &#8230; <a href="http://www.cslog.cn/Content/online-learning/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<h1 data-start="59" data-end="84"><span style="font-size: 16px;">在這個充滿不確定性的世界裡，幾乎所有的智能系統——無論是人腦、動物、企業組織還是AI模型——都在做着一件事情：</span><strong style="font-size: 16px;" data-start="141" data-end="169">從過去的局部經驗中總結出規律，去試探未來的反饋。</strong></h1>
<p data-start="171" data-end="260">這種機制看似樸素，卻蘊含著極為深刻的哲學與技術含義。我將它稱為一種“在線學習推演模型”（Online Inductive Probing Model），並嘗試從以下幾個維度展開：</p>
<hr data-start="262" data-end="265" />
<h2 data-start="267" data-end="288">一、時間維度的單向性：我們只能用過去</h2>
<p data-start="290" data-end="346">無論是誰，都無法逃脫時間的箭頭。我們做出所有判斷的依據，<strong data-start="318" data-end="332">只能是過去已發生的事</strong>。未來尚未發生，也無從取樣。</p>
<p data-start="348" data-end="362">更具體地說，任何推理或模型：</p>
<ul data-start="363" data-end="444">
<li data-start="363" data-end="377">
<p data-start="365" data-end="377"><strong data-start="365" data-end="377">只能使用歷史數據</strong></p>
</li>
<li data-start="378" data-end="405">
<p data-start="380" data-end="405"><strong data-start="380" data-end="405">基於有限區域的信息（空間、語義或感知範圍）</strong></p>
</li>
<li data-start="406" data-end="421">
<p data-start="408" data-end="421"><strong data-start="408" data-end="421">提出一種規則或結構</strong></p>
</li>
<li data-start="422" data-end="444">
<p data-start="424" data-end="444"><strong data-start="424" data-end="444">並在未來遇到反饋後進行修正或淘汰</strong></p>
</li>
</ul>
<p data-start="446" data-end="462">這就是最原始也最通用的學習方式。</p>
<hr data-start="464" data-end="467" />
<h2 data-start="469" data-end="492">二、無法證實，無法證偽：試探是唯一的方式</h2>
<p data-start="494" data-end="528">這套模型有個悖論：它既無法完全證實所推理的“規則”，也無法徹底證偽。</p>
<ul data-start="529" data-end="594">
<li data-start="529" data-end="547">
<p data-start="531" data-end="547">因為未來未到，驗證永遠是延後的；</p>
</li>
<li data-start="548" data-end="569">
<p data-start="550" data-end="569">而未來反饋往往不完全、不連續、不明確；</p>
</li>
<li data-start="570" data-end="594">
<p data-start="572" data-end="594">所以，一個假說只能“暫時有效”，直到它失效。</p>
</li>
</ul>
<p data-start="596" data-end="615"><strong data-start="596" data-end="615">這是一種永遠在路上的認知模式。</strong></p>
<p data-start="617" data-end="628">我們只能不斷“試探”：</p>
<ul data-start="629" data-end="660">
<li data-start="629" data-end="636">
<p data-start="631" data-end="636">拋出預測；</p>
</li>
<li data-start="637" data-end="644">
<p data-start="639" data-end="644">接受反饋；</p>
</li>
<li data-start="645" data-end="652">
<p data-start="647" data-end="652">修正模型；</p>
</li>
<li data-start="653" data-end="660">
<p data-start="655" data-end="660">再次預測。</p>
</li>
</ul>
<p data-start="662" data-end="708">這非常像貝葉斯更新，也像進化選擇。你永遠不能證明自己是對的，但可以不斷修正偏差，靠近有效性。</p>
<hr data-start="710" data-end="713" />
<h2 data-start="715" data-end="731">三、提升學習效率的兩條路徑</h2>
<p data-start="733" data-end="763">既然這是個結構性困境，我們就只能在<strong data-start="750" data-end="758">試探效率</strong>上下功夫。</p>
<h3 data-start="765" data-end="787">1. 加快預測節奏：增加反饋密度</h3>
<p data-start="788" data-end="828">如果你能在短時間內做出更多“小預測”，哪怕是微小反饋，也能加快模型的迭代。比如：</p>
<ul data-start="829" data-end="886">
<li data-start="829" data-end="843">
<p data-start="831" data-end="843">股票市場中的高頻交易策略</p>
</li>
<li data-start="844" data-end="861">
<p data-start="846" data-end="861">人類認知中的“快速驗證小假設”</p>
</li>
<li data-start="862" data-end="886">
<p data-start="864" data-end="886">AI中的強化學習 agent 快速與環境互動</p>
</li>
</ul>
<h3 data-start="888" data-end="910">2. 增強感知能力：擴展輸入維度</h3>
<p data-start="911" data-end="941">另一種方式是“裝更多眼睛和耳朵”，也就是增加傳感器和數據源：</p>
<ul data-start="942" data-end="1011">
<li data-start="942" data-end="967">
<p data-start="944" data-end="967">人工智能中，添加多模態輸入（圖像+語言+動作）</p>
</li>
<li data-start="968" data-end="989">
<p data-start="970" data-end="989">人類學習中，去傾聽他人經驗、跨領域觀察</p>
</li>
<li data-start="990" data-end="1011">
<p data-start="992" data-end="1011">企業經營中，提升用戶反饋、監控系統建設</p>
</li>
</ul>
<p data-start="1013" data-end="1053">本質上都是：<strong data-start="1019" data-end="1053">提升輸入的覆蓋面與密度，從而讓模型擁有更多可參考的“過去”。</strong></p>
<hr data-start="1055" data-end="1058" />
<h2 data-start="1060" data-end="1093">四、架構的歷史演進：在擴展有效 context length</h2>
<p data-start="1095" data-end="1147">從歷史的視角看，人類所有關於“學習架構”的進化，本質上都圍繞一個目標：<strong data-start="1130" data-end="1146">延長“有效上下文”的範圍</strong>。</p>
<p data-start="1149" data-end="1233">從最原始的口口相傳、記憶規則，到文字、書籍、數據庫、互聯網，再到今天的人工智能模型（如Transformer、GPT），不斷擴大的都是我們能納入推理系統的“過去內容”。</p>
<blockquote data-start="1235" data-end="1271">
<p data-start="1237" data-end="1271"><strong data-start="1237" data-end="1271">有效 context length = 可用於決策的經驗範圍</strong></p>
</blockquote>
<p data-start="1273" data-end="1334">AI系統里，我們從 RNN（短記憶）到 LSTM（門控記憶）到 Transformer（全局注意力），無不體現出這個趨勢。</p>
<p data-start="1336" data-end="1350">而未來的發展，也會持續提升：</p>
<ul data-start="1351" data-end="1416">
<li data-start="1351" data-end="1371">
<p data-start="1353" data-end="1371"><strong data-start="1353" data-end="1361">時間跨度</strong>（處理更久遠的過去）</p>
</li>
<li data-start="1372" data-end="1393">
<p data-start="1374" data-end="1393"><strong data-start="1374" data-end="1382">多維感知</strong>（整合更多形式的信息）</p>
</li>
<li data-start="1394" data-end="1416">
<p data-start="1396" data-end="1416"><strong data-start="1396" data-end="1404">狀態空間</strong>（建模更複雜的外部世界）</p>
</li>
</ul>
<hr data-start="1418" data-end="1421" />
<h2 data-start="1423" data-end="1448">五、但 context 的擴大，也帶來副作用</h2>
<p data-start="1450" data-end="1484">需要注意的是，並非“context 越長越好”。以下風險會隨之而來：</p>
<ul data-start="1485" data-end="1560">
<li data-start="1485" data-end="1514">
<p data-start="1487" data-end="1514"><strong data-start="1487" data-end="1496">過擬合歷史</strong>：模型過度相信過去規律，錯失變化信號</p>
</li>
<li data-start="1515" data-end="1537">
<p data-start="1517" data-end="1537"><strong data-start="1517" data-end="1525">響應遲緩</strong>：記憶過重會拖慢反應速度</p>
</li>
<li data-start="1538" data-end="1560">
<p data-start="1540" data-end="1560"><strong data-start="1540" data-end="1548">信息冗餘</strong>：噪音累積，信號反而稀釋</p>
</li>
</ul>
<p data-start="1562" data-end="1595">所以，任何智能系統都需要在<strong data-start="1575" data-end="1587">記憶 vs 適應</strong>之間做動態平衡。</p>
<hr data-start="1597" data-end="1600" />
<h2 data-start="1602" data-end="1623">六、從本質看：這是所有智能的底層模式</h2>
<p data-start="1625" data-end="1661">你會發現，無論人類思維、公司決策，還是AI系統，幾乎都遵循這個通用架構：</p>
<blockquote data-start="1663" data-end="1694">
<p data-start="1665" data-end="1694"><strong data-start="1665" data-end="1694">有限經驗 → 提出模式 → 未來驗證 → 反饋修正</strong></p>
</blockquote>
<p data-start="1696" data-end="1755">這就是一種“後驗智能”（post-hoc intelligence），<strong data-start="1731" data-end="1755">在無法預知中不斷調整自己，從而適應未來。</strong></p>
<p data-start="1757" data-end="1772">而“智能”的本質，可能就只是：</p>
<ul data-start="1773" data-end="1814">
<li data-start="1773" data-end="1785">
<p data-start="1775" data-end="1785">提出合理假設的能力；</p>
</li>
<li data-start="1786" data-end="1798">
<p data-start="1788" data-end="1798">快速驗證假設的能力；</p>
</li>
<li data-start="1799" data-end="1814">
<p data-start="1801" data-end="1814">容忍錯誤並及時調整的能力。</p>
</li>
</ul>
<hr data-start="1816" data-end="1819" />
<h2 data-start="1821" data-end="1840">七、未來方向：更快、更廣、更精準</h2>
<p data-start="1842" data-end="1858">我們真正要追求的，或許是這三點：</p>
<ol data-start="1859" data-end="1958">
<li data-start="1859" data-end="1896">
<p data-start="1862" data-end="1896"><strong data-start="1862" data-end="1873">更快的反饋循環</strong>：從年級考試 → 每日小測 → 實時眼動追蹤；</p>
</li>
<li data-start="1897" data-end="1926">
<p data-start="1900" data-end="1926"><strong data-start="1900" data-end="1911">更廣的感知範圍</strong>：從單一維度 → 多模態融合；</p>
</li>
<li data-start="1927" data-end="1958">
<p data-start="1930" data-end="1958"><strong data-start="1930" data-end="1943">更精準的上下文建模</strong>：從純數據 → 意義結構圖譜。</p>
</li>
</ol>
<p data-start="1960" data-end="1977">也許這正是智能系統未來的發展路徑。</p>
<hr data-start="1979" data-end="1982" />
<h2 data-start="1984" data-end="1995">小結：命名與比喻</h2>
<p data-start="1997" data-end="2014">我們可以為這種結構起個名字，比如：</p>
<ul data-start="2016" data-end="2190">
<li data-start="2016" data-end="2055">
<p data-start="2018" data-end="2055"><strong data-start="2018" data-end="2027">試探式智能</strong>（Probe-based Intelligence）</p>
</li>
<li data-start="2056" data-end="2096">
<p data-start="2058" data-end="2096"><strong data-start="2058" data-end="2068">後驗推演模型</strong>（Post-hoc Inference Model）</p>
</li>
<li data-start="2097" data-end="2135">
<p data-start="2099" data-end="2135"><strong data-start="2099" data-end="2109">時間盲測系統</strong>（Temporal Blind Probing）</p>
</li>
<li data-start="2136" data-end="2190">
<p data-start="2138" data-end="2190"><strong data-start="2138" data-end="2150">延遲反饋學習架構</strong>（Delayed Feedback Learning Architecture）</p>
</li>
</ul>
<p data-start="2192" data-end="2196">它就像：</p>
<ul data-start="2197" data-end="2257">
<li data-start="2197" data-end="2211">
<p data-start="2199" data-end="2211">在霧中行走，靠回聲定位；</p>
</li>
<li data-start="2212" data-end="2234">
<p data-start="2214" data-end="2234">在黑箱前試按按鈕，根據燈光變化理解機制；</p>
</li>
<li data-start="2235" data-end="2257">
<p data-start="2237" data-end="2257">或者像盲人摸象，每一次觸摸都是一次推理。</p>
</li>
</ul>
<p data-start="2259" data-end="2290">這是不完美的，但確實是<strong data-start="2270" data-end="2289">所有智能體正在使用的最現實方式</strong>。</p>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/online-learning/zh-hant/">http://www.cslog.cn/Content/online-learning/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/online-learning/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>測試和分析auto-gpt0.3</title>
		<link>http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/#comments</comments>
		<pubDate>Tue, 09 May 2023 18:19:36 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[autogpt]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1351</guid>
		<description><![CDATA[上一次測試auto-gpt0.2.2，發現1：不停地重複在網上找和下載文件，結果 &#8230; <a href="http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>上一次測試<a href="https://github.com/Significant-Gravitas/Auto-GPT">auto-gpt</a>0.2.2，發現1：不停地重複在網上找和下載文件，結果還是沒有能力把指定文件下載下來。<br />
2：我手動下載了文件，讓它讀取分析，發現讀了之後馬上報錯自動退出了。說是提交給openai的token超字數了。。。</p>
<p>今天我又配置了當前最新的stable 0.3 auto-gpt，還是測試同樣的任務，讓它整理《紅樓夢》中的小說人物關係圖譜。<br />
首先，發現下載文件還是下載不了。跟0.2.2很像。<br />
沒辦法，我手動下載了文件給它。<br />
然後，發現它執行代碼一定要在docker運行。我查了代碼，修改成直接可以運行了。<br />
又然後，我發現它一直想執行還沒保存的代碼文件，我通過對話提示它先寫好代碼文件再執行文件。以後每次要執行代碼我發現都要做這樣的提示。顯然裡面有個邏輯問題。也許是execute_python_file命令應該對應一個新的文件，而execute_code應該創建一個新的文件，接的參數是代碼內容，而不是文件名。操作的時候讓代理先保存代碼文件，然後執行。<br />
又又然後，我發現在訪問代碼時，openai.error.APIConnectionError，不知道是不是網絡環境問題，遇到這個問題程序就中止了。我修改了代碼，讓它遇到問題後重試。<br />
最後，還是發現了tokens遇長的問題，我不知道哪裡的代碼又不嚴謹。。。到這裡，愉快的一下午就快結束了。</p>
<p>看來這個任務還是很難完成。</p>
<p>目前看來，auto-gpt還十分不成熟，原因是，1裡面的代碼里的bugs非常多；2系統有幾個如google查詢，讀寫文件，執行代碼等功能模塊，但這幾個模塊的調動很不協調，操作很不連貫，它們的組合經常十分生疏，如同請一個有理論，但完全沒有實踐基礎的幾個技術人員一起完成一個大任務。</p>
<p>顯然，在人工智能發展的路上，這些問題都會被解決。但現在而言，從效率角度看，在實際工作中用auto-gpt還是比較早的。auto-gpt在設計的時候，是用來完成通用任務的。我感覺現在來說，還需要很多的調整和磨合。讓人工智能做不同的事，本身要學習經驗。而讓人工智能做重複的事，這可我感覺現階段應該使用prompt+特定的任務代碼+gpt的形式可能更實在一些。
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/">http://www.cslog.cn/Content/auto-gpt-stable-0-3/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/auto-gpt-stable-0-3/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>中文LLaMA Alpaca大語言模型在text-generation-webui和llama.cpp上的部署</title>
		<link>http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/#comments</comments>
		<pubDate>Fri, 05 May 2023 17:19:25 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[alpaca]]></category>
		<category><![CDATA[llama]]></category>
		<category><![CDATA[llama.cpp]]></category>
		<category><![CDATA[大語言模型]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1344</guid>
		<description><![CDATA[中文LLaMA模型和指令精調的Alpaca大模型在text-generation &#8230; <a href="http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<div>
<p>中文LLaMA模型和指令精調的Alpaca大模型在text-generation-webui和llama.cpp上的部署<br />
LLaMA是facebook的meta公司放出來的大語言模型，這個模型的中文能力非常差。<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca" rel="noopener" target="_blank">Chinese-LLaMA-Alpaca</a>在原版LLaMA的基礎上擴充了中文詞表並使用了中文數據進行二次預訓練，進一步提升了中文基礎語義理解能力。目前已開源的模型版本：7B（標準版、Plus版）、13B（標準版）。這些版本可以在16G，甚至可以在8G內存的個人電腦上部署。似乎不用顯卡。今天我在16G內存的個人筆記上部署了。這是記錄。</p>
</div>
<div>
<p>由於筆記本電腦只有16G，所以我選擇是LLaMA/Alpaca Plus版本（7B）版本。7B的模型占內存13GB，8bit量化後是7.8GB。</p>
</div>
<div>
<div></div>
<h2 data-heading="模型下載與合併">模型下載與合併</h2>
</div>
<div>
<p>部署需要<a href="https://github.com/facebookresearch/llama" rel="noopener" target="_blank">原版LLaMA模型</a>和中文LLaMA模型Chinese-LLaMA-Plus-7B與中文Alpaca模型Chinese-Alpaca-Plus-7B。三個模型要合併成一個模型。<br />
頁面也提供了Colab在線合併的方式，在線合併的話就不用下載上面的三個模型，只要下載合併好的模型就可以了。</p>
<p><span id="more-1344"></span><br />
我的Colab免費賬號內存比較低，所以我選擇了下載模型後<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/%E6%89%8B%E5%8A%A8%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2" rel="noopener" target="_blank">本地合併</a>。</p>
</div>
<div>
<p>注意，本地合併過程中要用到一個protobuf 3.20.0庫。網頁沒有提及。</p>
</div>
<div>
<p>說是合併要用到13G內存，但在我的16G內存筆記上合併過程沒有遇到問題。</p>
</div>
<div>
<div></div>
<h2 data-heading="text-generation-webui部署">text-generation-webui部署</h2>
</div>
<div>
<p><a href="https://github.com/oobabooga/text-generation-webui" rel="noopener" target="_blank">text-generation-webui</a>是一個網頁界面的大語言模型工具。部署<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/%E4%BD%BF%E7%94%A8text-generation-webui%E6%90%AD%E5%BB%BA%E7%95%8C%E9%9D%A2" rel="noopener" target="_blank">參看教程</a>。<br />
注意這個教程是針對沒有合併模型的。如果模型合併了，只要加載合併好的一個模型就可以運行了。<br />
<code>python server.py --model llama-7b-hf --cpu</code></p>
<p><code></code><img class="aligncenter size-medium wp-image-1345" title="2023-05-05_181823" src="http://www.cslog.cn/wp-content/uploads/2023/05/2023-05-05_181823-502x600.png" alt="" width="502" height="600" /><br />
不知道是什麼原因，我測試發現text generation webui的反應非常慢。發個你好要幾分鐘才回復。讓它寫個詩，幾小時只寫了幾行。幾乎沒有可用性。不知道是不是我沒有開啟GPU模式的原因。</p>
</div>
<div>
<div></div>
<h2 data-heading="llama.cpp部署">llama.cpp部署</h2>
</div>
<div>
<p>text generation webui太卡了，我轉向<a href="https://github.com/ggerganov/llama.cp" rel="noopener" target="_blank">llama.cpp</a>。<a href="https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/llama.cpp%E9%87%8F%E5%8C%96%E9%83%A8%E7%BD%B2" rel="noopener" target="_blank">參考教程</a>。<br />
我是在windows 11下部署，所以要先安裝<a href="https://github.com/skeeto/w64devkit/releases" rel="noopener" target="_blank">w64devkit</a>。在它裡面運行make。然後參考上面的教程就可以了。<br />
我先對模型進行了8bit的量化。<br />
<code>quantize.exe ./zh-models/chinese_alpaca_plus_7B_pth/ggml-model-f16.bin ./zh-models/chinese_alpaca_plus_7B_pth/ggml-model-q8_0.bin 7</code></p>
</div>
<div>
<p>然後啟動<br />
<code>main.exe -m zh-models/chinese_alpaca_plus_7B_pth/ggml-model-q8_0.bin --color -f prompts/alpaca.txt -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3</code></p>
<p><img class="aligncenter size-medium wp-image-1346" title="中文LLaMA Alpaca在llama.cpp的表現" src="http://www.cslog.cn/wp-content/uploads/2023/05/2023-05-05_191558-720x525.png" alt="" width="720" height="525" /></p>
<p>llama.cpp的響應速度非常快。差不多幾秒就回復了。但似乎回復的結果不是非常好，很多錯誤。看來這個模型的可用性還不是很高。而且回復經常中斷。</p>
</div>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/">http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/chinese-llama-alpaca-text-generation-webui-llama-cpp/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>評老唐的估值體系（《價值投資實戰手冊》讀後感）</title>
		<link>http://www.cslog.cn/Content/review-1/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/review-1/zh-hant/#comments</comments>
		<pubDate>Wed, 13 Jul 2022 04:17:37 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[投資理財]]></category>
		<category><![CDATA[書評]]></category>
		<category><![CDATA[投資]]></category>
		<category><![CDATA[理財]]></category>
		<category><![CDATA[股市]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1339</guid>
		<description><![CDATA[這段時間讀了老唐（唐朝）的《價值投資實戰手冊》（原版和第二輯），這裡分析一下老唐 &#8230; <a href="http://www.cslog.cn/Content/review-1/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>這段時間讀了老唐（唐朝）的《價值投資實戰手冊》（原版和第二輯），這裡分析一下老唐使用的估值方法。</p>
<p>老唐的估值方法的基礎其實就是絕對估值法。主要是看各投資品的絕對收益數值，哪個高投資哪個。在老唐書里，討論的投資品壓縮到了2種，就是無風險債券和股票。老唐的估值法就是比較這兩種投資品。甚至不是用來做這兩大類的選擇，目的不是為了決定整個股票倉位，而是用於挑選哪個股票更合適。因為在老唐看來，股票的收益一般會比債券高，只是哪個股票更好，債券的收益主要是拿來參考。老唐書里也沒有介紹股票之外的投資品的投資細節，主要是股票投資的好處和估值方法及股票選擇實例。可以這樣說，對於投資，現在的老唐眼裡只有股票。對於股票，他有一套自己的擇股方法，並使用這個方法，在過去的的十來年，有過平均收益25%以上的成功歷史。<br />
老唐股票操作守則：</p>
<p><span id="more-1339"></span><br />
首先確定一個上市公司的3年後的合理估值。計算方法：3年後預計自由現金流x(1/無風險收益率)，高槓桿企業估值打七折<br />
買點：股價低於合理估值的一半時買入。<br />
賣點：<br />
1。企業基本面惡化<br />
2。有更好的投資對象<br />
3。股價超過3年後合理估值的150%<br />
4。當年動態PE超過50<br />
其它時間不操作</p>
<p>選股池條件：<br />
1。公司利潤真實可靠<br />
2。公司利潤可持續<br />
3。企業運營資本投入少<br />
分析<br />
首先，老唐取3年時間，我感覺是明智的。現在的環境變化很大，時間太長變數太多，不容易預測，太短市場因素影響大，業績因素體現的不明顯。<br />
這個合理估值就是把第三年的收入，當成永遠持續按無風險收益率增長的固定收入，把它等同於類似債券投資的估值。老唐一再強調這是一個簡化後的簡化方法。這樣的簡化一個是為了方便計算；另一個是本身企業的運營變數太多，詳細的預測作用也是有限的。<br />
在我看來，這是一個非常粗暴和簡陋的計算方法。老唐竟然是用這個獲取了這麼高的收益率，有點難以相信。這個公式本身其實是有不少問題的。主要是兩個：一個是怎麼預測3年後的自由現金流數值；另一個是怎麼就突然把這個企業3年後就現金流固定下來，認為企業會以這個現金流為基礎，並每年以風險收益率的速度自由現金流增長。這兩個是這個公式成立的前提條件。在我看來都是不可能的條件。</p>
<p>關於3年後的自由現金流的確定，老唐提供了兩個方法，一個是自己對企業的跟蹤和調查，另一個是參照別人研報的推算（可以平均幾家，然後砍一刀，打8折）。<br />
關於以第三年現金流作為恆定收入的做法，老唐提供了一個這樣的辯解：“將。。。三年後仍然可能的成長性的優勢與未來收益確定性低於100%的劣勢相互抵消”。大意就是說企業可能變的更好，也可能變壞，於是不如當成不變。。。。<br />
3年後的無風險收益率（老唐認為可以參考銀行短期低風險理財產品的年化收益率，如民生銀行的“天天增利”。）也是變動的，不可能準確預測。</p>
<p>顯然，老唐的合理估值不是一個科學嚴謹的估值方法。但老唐為什麼能成功呢？我認為在老唐的成功不在於估值方法本身。而在於他的砍價能力。一個是合理估值的半價買入！！！另一個就是動不動再打個7折，8折。這個相當於“合理估值”的3，4折買入。無論“合理估值”對不對，買的足夠低，賺錢的概率就大很多。</p>
<p>老唐能成功的另一個訣竅在於股票池的限定。1。公司利潤真實可靠、2。公司利潤可持續、3。企業運營資本投入少。這三個條件其實把大多數的國內上市公司排除開了，只留下了極個別優質的企業。要求企業再投入少，利潤可持續。如果一個企業利潤持續，那把它3年後的現金流收入固定下來，就相當於很保守的估值法了。所以是這個前提，讓上面的估值公式可以操作。</p>
<p>另外，這個方法其實有一個很大的悖論，老唐認為買點是3年後合理估值的50%，這樣在3年後如果達到合理估值，年化收益為26%，而理論的前提又是把股票當成債券，同債券的風險收益率4-5%點的收益做比較的結果。。。賣出時要求當前股價達到3年後合理估值的150%以上。這樣的要求顯然是很無理的要求。但老唐卻通過實踐做到了。這種不可能只能是基於一個條件：市場的高度無效性！！！市場價格必需在估值上下大幅度的波動，讓老唐有以超低價格買入，並以遠高於合理估值的價格賣出。</p>
<p>老唐估值法的簡化理解<br />
通過以上的分析，我發現老唐估值法其實可以更簡單的理解為：<br />
在一個高度無效的市場，找幾個利潤可持續，再投入少的頂尖優質企業，如老唐投的貴州茅台，洋河股份、騰訊控股、分眾傳媒。因為這些企業的質量優秀，在3年內以20-25Pe賣出可能性是沒有問題的。<br />
等他們在3年後PE20左右的估值一半的價格買入。<br />
當他們漲過這個估值的150%時賣出。<br />
期間哪個下跌的多了，可以賣出估值高的調整到估值低的。</p>
<p>核心點其實是兩個，1。找的企業要是優質的，優質體現在兩個方面，一是3年後和利潤能達到預測，二是3年後市場對它的估值應該能達到PE20以上。2。以非常便宜的價格買入。前提是市場高度無效，股價波動大，提供了買入賣出機會。
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/review-1/zh-hant/">http://www.cslog.cn/Content/review-1/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/review-1/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>不好之好</title>
		<link>http://www.cslog.cn/Content/the-benefit-of-no-good/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/the-benefit-of-no-good/zh-hant/#comments</comments>
		<pubDate>Tue, 28 Jun 2022 11:08:33 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[成敗幾何]]></category>
		<category><![CDATA[我思我在]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1336</guid>
		<description><![CDATA[事物是發展的。如果順心，即會從不好慢慢變好，由好到最好。從前向後看，當然是最好的 &#8230; <a href="http://www.cslog.cn/Content/the-benefit-of-no-good/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>事物是發展的。如果順心，即會從不好慢慢變好，由好到最好。從前向後看，當然是最好的時刻最讓人期待。我們希望健康;我們希望富有，我們希望幸福。最好的時刻真的好嗎？應該是的，因為它最好嘛。但仔細思考，你們感應恐怖，因為在那之後怎樣？必定又是不會那麼好了。不然怎麼說那時刻最好了呢？最健康之後應該就是衰老、最富有之後就慢慢式微、最幸福之後恐怕就是意外之變了。所以，最好其實也不好。</p>
<p>把最好都想的不好，你會說我是多麼的悲觀主義呢？應該會說是悲觀之極吧？但我還真是固執之人，我偏要認為自己樂觀之極。因為我說最好不好的目的不是否定最好，而是要擺出這個陣式，然後頌揚不好之好。既然最好不好，那什麼好呢？不好啊。在不好時，你可以變的更好。什麼時候最好呢？最好最好不要來，或者來的越晚越好。比如去世時到來。</p>
<p>2019-03
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/the-benefit-of-no-good/zh-hant/">http://www.cslog.cn/Content/the-benefit-of-no-good/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/the-benefit-of-no-good/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>惠普HP 39GS圖形計算器刷newRPL系統及RPL系統語言入門教程</title>
		<link>http://www.cslog.cn/Content/hp-39gs-newrpl/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/hp-39gs-newrpl/zh-hant/#comments</comments>
		<pubDate>Fri, 24 Sep 2021 15:02:06 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[信息處理]]></category>
		<category><![CDATA[hp39gs]]></category>
		<category><![CDATA[newRPL]]></category>
		<category><![CDATA[rpl語言]]></category>
		<category><![CDATA[圖形計算器]]></category>
		<category><![CDATA[教程]]></category>
		<category><![CDATA[計算器]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1330</guid>
		<description><![CDATA[RPL (Reverse Polish Lisp) 語言是惠普公司為計算器開發的 &#8230; <a href="http://www.cslog.cn/Content/hp-39gs-newrpl/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>RPL (Reverse Polish Lisp) 語言是惠普公司為計算器開發的的一種編程語言。網友開發了<a href="https://newrpl.wiki.hpgcc3.org/doku.php?id=manual:chapter1:introduction" target="_blank">newRPL系統</a>，讓RPL語言運行在更多平台上。</p>
<p>目前newRPL可以運行的平台有<br />
惠普圖形計算器：HP 50g、HP 48GII、HP 40gs、HP 39gs、HP Prime G1 (第一代)<br />
Windows等電腦<br />
Android (7.0及以上)</p>
<p>其中的hp 39gs計算器便宜又大碗。某寶上幾十塊就可以買到。下面記錄下hp 39gs上刷和使用newRPL系統的經驗。</p>
<p>newRPL下載：<br />
下載newRPL rom <a href="https://sourceforge.net/projects/newrpl/files/" target="_blank">https://sourceforge.net/projects/newrpl/files/</a> 或 <a href="https://www.hpmuseum.org/forum/thread-14562.html" target="_blank">https://www.hpmuseum.org/forum/thread-14562.html</a><br />
下載39gs的rom，下載最新版本。<br />
下載 hp計算器的 Connectivity Kit<br />
<a href="https://www.educalc.net/1047482.page" target="_blank">https://www.educalc.net/1047482.page</a><br />
下載新版的usb驅動<br />
<a href="https://www.educalc.net/286482.page" target="_blank">https://www.educalc.net/286482.page</a> 注意是頁面後面的鏈接<br />
安裝Connectivity kit和新版的usb驅動。windows 10安裝usb驅動會有問題，我找了一台windows 7系統安裝刷機。</p>
<p>驅動安裝正確後，用mini-USB數據線連接計算器和電腦，打開計算器，Connectivity kit應該會顯示文件目錄。</p>
<p>這樣就可以開始刷newRPL系統了：</p>
<p><span id="more-1330"></span><br />
準備一個取手機sim卡的針，關閉計算器，按住hp 39gs的+和-兩按鍵，用卡針捅一下計算器背後的reset，計算器會開機，選擇1.UPDATE CODE,然後選擇1.USB<br />
然後在Connectivity kit選擇ROM Download那裡選擇下載好的newRPL .bin固件。然後就開始刷機了。刷機會清除計算器原來的系統和數據。完成後會提示你按一下ENTER鍵。</p>
<p>反應快很多</p>
<p>newRPL系統的使用入門</p>
<p>鍵盤和界面：<br />
<img class="aligncenter size-medium wp-image-1331" title="I2" src="http://www.cslog.cn/wp-content/uploads/2021/09/I2-720x433.jpg" alt="" width="720" height="433" /><br />
字顯示小很多，可以一屏顯示很多內容</p>
<p>新系統使用的按鍵布局不一樣，新的布局與hp48gii或hp50g等比較接近，但不完全一樣。這個帖子有專門為newRPL定製的貼紙，可以打印出來貼上去：<br />
<a href="https://www.hpmuseum.org/forum/thread-16487-post-146313.html#pid146313" target="_blank">https://www.hpmuseum.org/forum/thread-16487-post-146313.html#pid146313</a></p>
<p><img class="alignnone" src="https://www.transsys.com/images/newRPL/keypad7-600-dpi.png" alt="" width="600" height="600" /><br />
簡單來說<br />
A-F對應第行菜單內容，菜單第一字母灰色的有下一級菜單，被選中會進入下一級菜單，按MENNU回到根菜單<br />
G-L對應第二區菜單，一般是顯示變量名，按中直接調出對應位置的變量。<br />
方向鍵<br />
上下鍵可能移動箭頭</p>
<p>三個切換鍵：<br />
ALPHA按鍵單擊切換到大寫字母輸入，再次單擊切換大小寫，雙擊退出字母模式。<br />
Shift左和shift右不用解釋<br />
這三個按鍵可以按住與其它按鍵組合實現更多功能。</p>
<p>基本使用<br />
rewRPL改變原來計算器的使用方法<br />
計算 1+2<br />
1，ENTER 屏上在輸入1後會顯示第一行1，這是最新的Stack棧。Stack是重要的概念。<br />
2, ENTER 輸入2後，第1行變成2。第一行永遠是最後輸入的內容。原來的內容被移到2。<br />
+ 得到結果3， +這個命令會將前面兩個stack的內容相加。得到結果3，直接放到當前的第1行Stack<br />
注意這種先輸入數字，再輸入操作的倒裝語法方式。</p>
<p>有的命令只使用一個輸入，如<br />
輸入<br />
5, ENTER<br />
左shift, 2輸入！命令，直接得到5！的結果120</p>
<p>可以不用每次輸入ENTER，直接用空格分隔輸入，如<br />
1 2 +<br />
也可以計算1 + 2</p>
<p>1 2 + 2 /<br />
可以計算<br />
（1 + 2）/2，得到 1.5<br />
留意命令在數據後面，結果變成新的數據的規則。</p>
<p>可以使用單引號直接輸入代數形式的計算，如<br />
&#8217;1 + 2&#8242;<br />
輸入後這個不會馬上計算，可以使用EVAL命令計算它的結果，得到&#8217;2&#8242;<br />
注意結果也帶引號，可以使用-&gt;NUM命令讓它變數字。</p>
<p>將數值存到變量<br />
如，將123存到 x<br />
123 &#8216;x&#8217; STO<br />
注意x要帶引號<br />
調用變量<br />
x 1 +<br />
直接得到124</p>
<p>編寫程序：<br />
程序使用《 》符號包圍：<br />
《 + 2 /》 &#8216;AVGRAGE&#8217; STO<br />
將求平均的功能存到AVGRAGE變量<br />
使用這個變量：<br />
1 2 AVGRAGE<br />
會直接得到1.5<br />
相當於輸入：<br />
1 2 + 2 /</p>
<p>求勾股定理的程序：<br />
《 -&gt; x y &#8216;√(x^2+y^2)&#8217; 》 &#8216;hypo&#8217; STO<br />
使用：<br />
1 2 hypo<br />
得到&#8217;√5&#8242;<br />
可以使用-&gt;NUM命令讓它變小數形式。</p>
<p>可以調用的命令很多，如IF/THEN/ELSE、CASE條件判斷，FOR、DO、WHILE等循環。。。</p>
<p>更多的命令參看：<br />
<a href="https://newrpl.wiki.hpgcc3.org/doku.php?id=manual:chapter6" target="_blank">https://newrpl.wiki.hpgcc3.org/doku.php?id=manual:chapter6</a></p>
<p>快捷操作<br />
命令自動補完功能：<br />
在輸入一個字符後，這個字符相關的命令會在底部中右顯示，顯示的命令按ALPHA+右方向鍵可以調用，更多的相關命令可以使用ALPHA+上或下方向鍵切換。</p>
<p>文本選擇與複製、粘貼：<br />
左Shift，左方向鍵：定義選擇開始<br />
左Shift，右方向鍵：定義選擇結束<br />
左Shift+左方向鍵：複製<br />
左Shift+右方向鍵：粘貼<br />
左Shift+下方向鍵：剪切</p>
<p>插入變量的內容：<br />
G-L,直接調用變量<br />
右Shift+G-L，輸入變量的文字內容<br />
左Shift, G-L STO存到變量 注意，原來內容被覆蓋！！！不要誤按（重要變量可使用LOCKVAR保護起來）<br />
右Shift, G-L RCL調變量</p>
<p>四種輸入方式<br />
1.直接輸入數字和命令，運行會直接得到結果<br />
2.&#8221; 代數模式：如&#8217;1+1&#8242;,輸入後運行 EVAL會得到結果， 調用-&gt;NUM會得到數字結果<br />
3.《 》編程模式<br />
4.字母輸入模式：按ALPHA後輸入大寫或小寫字母，或插入雙引號&#8221;"後。</p>
<p>菜單導航<br />
MENU 在菜單1區顯示總菜單<br />
A-F進入相應菜單區1的項目<br />
右Shift, A-F在菜單2區顯示子菜單<br />
右Shift+M 菜單2區返回</p>
<p>Stack棧的操作<br />
上方向鍵開始棧選擇，ON鍵退出<br />
多選：移動第一個，按空格鍵（-)，移到最後個再次按空格鍵，第三次按空格取消選擇<br />
選擇後：<br />
左方向鍵：將當前棧移到1<br />
右方向鍵：將1移到當前位置<br />
左Shift+左方向鍵：複製<br />
左Shift+右方向鍵：粘貼<br />
左Shift+下方向鍵：剪切<br />
ENTER，將當前複製到1<br />
在沒有stack被選中的情況下，按下方向鍵，開始編輯stack 1的內容</p>
<p>常用命令</p>
<p>變量:<br />
存儲變量 42 &#8216;Mynum&#8217; STO<br />
調出變量 直接按G-L的相應按鍵或 &#8216;Mynum&#8217; RCL<br />
刪除變量 &#8216;Mynum&#8217; PURGE<br />
鎖定變量 LOCKVAR 將變量只讀<br />
解鎖變量 UNLOCKVAR<br />
從目錄中移除變量快捷方式 HIDEVAR<br />
解除移除 UNHIDEVAR</p>
<p>目錄:<br />
創建目錄 &#8216;TEST&#8217; CRDIR<br />
刪除目錄 PGDIR<br />
返回上級目錄 UPDIR</p>
<p>更多newRPL的資源<br />
newRPL的wiki網站：<br />
<a href="https://newrpl.wiki.hpgcc3.org/doku.php?id=manual:chapter1:rpl" target="_blank">https://newrpl.wiki.hpgcc3.org/doku.php?id=manual:chapter1:rpl</a><br />
hp 50g的高級用戶手冊（包含RPL語言教程與手冊，英文）<br />
<a href="https://www.hpcalc.org/details/7141" target="_blank">https://www.hpcalc.org/details/7141</a>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/hp-39gs-newrpl/zh-hant/">http://www.cslog.cn/Content/hp-39gs-newrpl/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/hp-39gs-newrpl/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>怎樣學快一點？論學習的速度</title>
		<link>http://www.cslog.cn/Content/learning-2/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/learning-2/zh-hant/#comments</comments>
		<pubDate>Mon, 30 Aug 2021 17:16:47 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[成敗幾何]]></category>
		<category><![CDATA[我思我在]]></category>
		<category><![CDATA[學習]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1327</guid>
		<description><![CDATA[不同的人學習不同的東西，有的人看一眼就學會了，有的人可能學習很久還是不能入門。是 &#8230; <a href="http://www.cslog.cn/Content/learning-2/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>不同的人學習不同的東西，有的人看一眼就學會了，有的人可能學習很久還是不能入門。是什麼導致這樣的差異呢？</p>
<p>我將導致學習速度的不同因素拆分，分為以下幾個：</p>
<p>1。最明顯的，投入真正學習的時間。很多人說想學什麼想學什麼，比如想學習英語，想學習樂器，問題是你真正投入時間了嗎？還是只是一直在口頭說說。沒有投入真正的學習時間，說想的永遠只是夢想或幻想吧。成功學上有一個10000小時原則。要真正掌握什麼，真金白銀地投入10000個小時學習啊。光說是沒有用的，浪費口水而已。</p>
<p>2。學習時候的注意力。有的人雖然投入了學習的時間，但學習的時候沒有集中精力，比如一邊學習一邊看電視，或者一邊學習，一邊心裡想其它東西。這樣的學習低效是可以預見的。這種三心二意的做事其實本身也是很浪費時間的，因為很可能做的想的二三件事都沒能做好。有的時候人要取捨，選擇在一個時間把一件事做好。</p>
<p>3。學習的材料，<span id="more-1327"></span>比如教材的質量，是否精心編排的教材。是否有形象的圖示，是否有適當的影音輔助教學；教學的老師。好的老師最重要的是應該提起學生對學習內容的興趣，其次是教學的方法，用適當的方法讓學生容易掌握這些學習內容。當然自學的話自己就得找到好的材料，好的方法。學者在學習遇到瓶頸時，可以試着換換學習教材，學習方法，或老師。</p>
<p>4。相關聯的基礎知識。學習者在學習新東西的時候，事行應該掌握這些新內容的前提基礎知識。如果基礎知識紮實，學習新內容就比較快；相反，如果很多基礎知識都不懂，那新知識聽起來很可能就雲山霧罩，不明所以。比如讓一個小學生去聽大學的專業課程，幾乎就是白費時間。如果你學習一個東西，發現很基礎概念或原理都不明白，那就說明當前的知識對你來說太進階了。這時候應該怎麼辦？你應該退出這個課程，去找一個基礎的，適合自己的課程去學習基礎，學會了再回來。這裡說一個我自己的實例。當年我在初中二年級時，因為當時學校條件差，當時的英語老師精神有問題，在課堂上所有的學生都沒能好好學習，上英語課時好多學習到講台上和老師嬉戲，所以我的初二英語沒有學好，期末考試時100分只考了20多分，其中大多是選擇題選C蒙對的。初三時我意識到這個問題，想學好英語，但因為沒有英語基礎，初三課堂上老師的課程對我來說太難了，很多聽不懂，於是我放棄了課堂學習，開始自己買英語教材從入門學習英語基礎。自學了一年，終於將英語基礎補了上去。中考150分的英語，考了130多分，高中時因為英語成績不錯，還當上了英語科代表。</p>
<p>5。大腦的開放性。這個說的是世界觀，是否認識到這個世界你不懂的非常多，不驕傲，而是應該時時虛心學習，做到求知，並虛心。和他人相處的時候，隨時明白對方可能是自己的學習對象。而不是到處炫耀自己的才識。一心不能兩用，當一個人忙於炫耀與表現的時候，他自然就失去了很多接收和學習的機會。你可以做一個永遠裝知識的袋子，你的知識會越裝越多；也可以做到處吹泡泡的肥皂水，越吹越少。拉長時間來看，對人的一輩子來說，其實心態這個因素對人是最重要的，虛心的人累積下來，知識越來越多。前面幾個因素只是影響學習的速度。</p>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/learning-2/zh-hant/">http://www.cslog.cn/Content/learning-2/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/learning-2/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>談學習之學習的目的</title>
		<link>http://www.cslog.cn/Content/learning-1/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/learning-1/zh-hant/#comments</comments>
		<pubDate>Sat, 07 Aug 2021 05:00:19 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[成敗幾何]]></category>
		<category><![CDATA[我思我在]]></category>
		<category><![CDATA[學習]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1321</guid>
		<description><![CDATA[我從小好學。可惜條件不好，學習之路磕磕碰碰，導致到現在也沒成啥大事。但我還是喜歡 &#8230; <a href="http://www.cslog.cn/Content/learning-1/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>我從小好學。可惜條件不好，學習之路磕磕碰碰，導致到現在也沒成啥大事。但我還是喜歡學習，並從學習中得到快樂，就如天真孩子一樣，我為此感到幸運。我準備花時間跟大家分享一些關於學習的心得。這是第一篇。</p>
<p>談學習的目的</p>
<p>正如做其它事一樣，學習的第一要點是動機。有充分的理由學習才會投入時間、精力認真去學習。學習的理由可以是興趣。喜歡什麼東西去學習什麼自然是很好的，你會自覺的投入時間精力。不過由此去學習的問題是學習到的知識並不一定有實際的用途。注意知識如果不用，是會被遺忘掉的（這個不是大腦的缺點，而是一功能，因為大腦的容積有限，遺忘就如手機的內存清理，清除不常用的內容，會留下更多的空間可以儲存更實用的東西）。是不是現在不用的東西就不能學的，<span id="more-1321"></span>其實不是的。因為有時候一種知識在你沒有熟悉或掌握之前，你並不知道它有什麼用，怎麼用，或許你學了，知道了用法，你就會去用它，並為你創造價值。比如本來是沒想過學習瑜伽，只是因為一時的興趣，你學習了，發現它很好，自己喜歡，而且對身體很有作用，你甚至轉行成為了一個瑜伽教練，想把它教給更多的學員。或許在接觸這個知識前，你沒有想過可能自己會做這麼大的改變。這就是因興趣學習的驚喜。總之，因為興趣去學習，有時候是單單享受學習過程的快樂（或痛苦？），結果知識不用而被遺忘，或者學習了新知識後，因為新知識帶來的新視界，改變了自己的人生軌跡，兩個都有可能。總結：有時候學了才知道有什麼用，有時候學了才知道沒啥用。如果有興趣又有時間，與其刷抖音，不如學學看。</p>
<p>學習最靠譜的理由是馬上需要用到知識。類似於臨陣磨槍。這種學習有急切的緊迫感，而且已經清楚學到了就要用上，不會浪費。</p>
<p>學習最不靠譜的理由是別人都在學，或者別人讓你學，因為這些學習都不是自己由衷的想要學習。這樣的學習沒有內動力。不單是學習，做任何事沒有內動力，靠外力的學習基本都是事倍功半，吃力不討好。自己不單不享受這一敷衍過程，而且學習效率十分低下，學到的知識也大多數對自己沒有作用或不願意去用，浪費時間、精力與生命，甚至金錢。如果你是老師或家長，以命令的形式向孩子發出的學習要求，就是這種情況。監督的家長也將是痛苦的要命。這時候應該怎麼辦？當然是停止這一多輸過程。這是一小道，成功的概率很小。正道是什麼，是引導學習者找到學習的正確目的。讓他悟的學習的理由，是為了興趣，還是為了馬上要用到知識（中小學的基礎知識可以為將來更多的高級知識打基礎，打開學生的眼界，還可以用來應付必須的考試）。花更多的時間讓學習者明白學習的理由，比花時間監督心不在焉的學習過程高效多了。就如武學中的打通任督二脈，或者參禪中的悟道，過了這關，讓學習者明白學習的理由，有了內動力，餘下的基本就是一馬平川，過了不了，所有的努力只是徒勞的消耗時間。</p>
<p>無論如何都找不到學習的理由怎麼辦？那就不要學啊。沒有理由還做什麼？可以把時間花在其它有意義的事上。或者轉變題材，學習自己感興趣的課題上。人生不是一條直線，非要弔死在一棵樹上。與其在不想學的東西上浪費時間，為什麼不學習一些自己感興趣的東西呢？不是說別人學的東西自己一定要學習，現在的社會內卷的這麼利害，如果劍走偏鋒，自己掌握了大多人沒有的知識，反而讓自己更為稀有，具有更高的價值。這就是管理學上的差異化吧。
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/learning-1/zh-hant/">http://www.cslog.cn/Content/learning-1/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/learning-1/feed/zh-hant/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>將小愛同學（小米AI音箱）接入Home Assistant（基於紅外遙控器）</title>
		<link>http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/</link>
		<comments>http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/#comments</comments>
		<pubDate>Fri, 02 Feb 2018 11:39:08 +0000</pubDate>
		<dc:creator>船長</dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[homeassistant]]></category>
		<category><![CDATA[小米]]></category>
		<category><![CDATA[智能家居]]></category>
		<category><![CDATA[樹莓派]]></category>
		<category><![CDATA[硬件]]></category>
		<category><![CDATA[遙控器]]></category>

		<guid isPermaLink="false">http://www.cslog.cn/?p=1316</guid>
		<description><![CDATA[小米音箱（小愛同學）做的不錯，但是目前功能上還是有很多限制，比如不能啟動電腦。H &#8230; <a href="http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/">繼續閱讀 <span class="meta-nav">&#8594;</span></a>]]></description>
			<content:encoded><![CDATA[<p>小米音箱（小愛同學）做的不錯，但是目前功能上還是有很多限制，比如不能啟動電腦。<a href="https://home-assistant.io/">Home assistant</a>是一個開放的智能家居平台，集成非常多的<a href="https://home-assistant.io/components/">模塊</a>，比如<a href="https://home-assistant.io/components/wake_on_lan/">Wake on LAN模塊</a>就可以實現通過網線喚醒電腦的功能。可惜目前不能通過小米音箱直接連接Home Assistant。好在小愛同學兼容自家的萬能遙控器，我們想到了把Home Assistant設備變成一個遙控終端，通過一個紅外萬能遙控器和一個紅外接收器做為一個橋接中介，實現小米音箱間接控制Home Assistant平台的目的。本文參考了<a href="https://bbs.hassbian.com/thread-2404-1-1.html">這個教程</a>。</p>
<h2>需要的東西</h2>
<p>運行Home Assistant的設備（電腦、NAS、樹莓派等，我用的是樹莓派2代）<br />
紅外接收器（我使用的是一個通用USB接收器，樹莓派用戶可以DIY一個）<br />
<a href="http://item.mi.com/1144200006.html">小米（創米）萬能紅外線遙控器</a><br />
<a href="https://www.mi.com/aispeaker/?cfrom=search">小米AI音箱</a></p>
<h2>給Home Assistant設備添加紅外遙控接收功能</h2>
<p>將紅外接收器連接到home assistant設備上。確認紅外設備存在，如<br />
<code><br />
pi@raspberrypi:~ $ ls /dev/lirc0<br />
/dev/lirc0<br />
</code></p>
<p>安裝<a href="http://www.lirc.org/">紅外線收發lirc程序</a>：<br />
<code><br />
pi@raspberrypi:~ $ sudo apt-get install lirc liblircclient-dev<br />
</code></p>
<p>測試紅外線接收功能正常：<br />
<span id="more-1316"></span><br />
<code><br />
sudo mode2 -d /dev/lirc0<br />
</code><br />
運行上面命令後找一個紅外遙控器對着接收器按任意鍵，應該可以收到類似這樣的字符：<br />
<code><br />
Using driver default on device /dev/lirc0<br />
Trying device: /dev/lirc0<br />
Using device: /dev/lirc0<br />
Running as regular user pi<br />
pulse 2750<br />
space 750<br />
pulse 550<br />
...<br />
</code><br />
好，現在Home Assistant設備可以接收到紅外遙控信息了。下一步，讓Home Assistant和紅外遙控器可以通信。</p>
<h2>讓Home Assistant接收紅外遙控數據</h2>
<p>隨便給lirc指定一個接收的遙控器數據表，這裡用的是xbox360的遙控器，你不需要有這個遙控器，因為後面可以用小米萬能遙控器把它模擬出來。<br />
下載xbox360遙控器的數據表,把它設置到lirc:<br />
<code><br />
pi@raspberrypi:~ $ wget http://lirc.sourceforge.net/remotes/microsoft/Xbox360<br />
pi@raspberrypi:~ $ sudo mv Xbox360 /etc/lirc/lircd.conf<br />
</code></p>
<p>創建/etc/lirc/lircrc文件，內容：<br />
<code><br />
begin<br />
remote = Microsoft_Xbox360<br />
button = KEY_STOP<br />
prog = home-assistant<br />
config = KEY_STOP<br />
end<br />
begin<br />
remote = Microsoft_Xbox360<br />
button = KEY_PAUSE<br />
prog = home-assistant<br />
config = KEY_PAUSE<br />
end<br />
</code><br />
這裡只以兩個按鍵為例子，參看上面/etc/lirc/lircd.conf的內容，你可以多添加幾個按鍵。</p>
<p>重啟lirc<br />
<code><br />
pi@raspberrypi:~ $ sudo systemctl restart lircd.service<br />
</code></p>
<p>現在在米家app給小米萬能遙控器添加Xbox360遙控器（使用搜索功能添加，裡面有兩個，我添加的是“微軟DVD播放器”那個），現在測試<br />
<code><br />
pi@raspberrypi:~ $ ircat home-assistant<br />
</code></p>
<p>按遙控器上的停止按鍵，應該會收到相應的代碼。<br />
<code><br />
</code><br />
現在米家app可以給home assistant設備發信息了，下一步要做的是根據這個信息，觸發不同的動作。</p>
<h2>Home assistant根據遙控器指令觸發動作</h2>
<p>編輯 HomeAssistant 的configuration.yaml文件，加入<a href="https://home-assistant.io/components/lirc/">lirc組件</a>，<br />
<code><br />
lirc:<br />
</code><br />
配置home assistant的自動化指令：<br />
<code><br />
automation:<br />
- alias: 打開燈<br />
trigger:<br />
platform: event<br />
event_type: ir_command_received<br />
event_data:<br />
button_name: KEY_PAUSE<br />
action:<br />
service: homeassistant.turn_on<br />
entity_id: group.a_lights<br />
</code><br />
上面的KEY_PAUSE就是剛剛配置的遙控器按鍵。action可以換成你想要的效果，我是幫來它來啟動我的電腦了。重啟homeassistant,讓配置生效，現在對着樹莓派按暫停播放鍵，就Homeassistant就會觸發相應的動作了。</p>
<h2>讓小米AI音箱控制萬能遙控器</h2>
<p>先打開米家app，在底部點選“智能”，在“我在”tab中點右上角的“+”號創建新智能條目，在選擇條件界面選擇“手動執行”，選擇“小米萬能遙控器”-〈遙控模式〉-〈微軟DVD播放器〉-〈暫停/播放〉-〈右上角“確定”〉設置你想要的名稱，比如“啟動電腦”<br />
好了。打開小米AI app，在底部點選“技能中心”-〈小愛訓練計劃〉-〈創建訓練〉-〈為問題命名，比如“啟動電腦”〉-〈設備控制〉-〈選擇剛創建的“啟動電腦”〉-〈打開〉，預覽後保存。<br />
（相關的圖文教程<a href="http://bbs.xiaomi.cn/t-13957311">點這裡</a>）</p>
<p>好了。現在對着小米同學說“啟動電腦”，小米音箱會指示小米萬能遙控器發送一個KEY_PAUSE按鍵，這時home assisant收到後，就會觸發啟動電腦的動作了。</p>
<p>參看：<a href="https://www.hackster.io/austin-stanton/creating-a-raspberry-pi-universal-remote-with-lirc-2fd581">Creating a Raspberry Pi Universal Remote With LIRC</a><br />
另一種通過第三方平台橋接小愛同學和home assistant的方法： <a href="https://bbs.hassbian.com/thread-2404-1-1.html">https://bbs.hassbian.com/thread-2404-1-1.html</a>
<div style="margin-top: 15px; font-style: italic">
<p>轉載請註明: 轉自<a href="http://www.cslog.cn/">船長日誌</a>, 本文鏈接地址: <a href="http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/">http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/zh-hant/</a></p>
</div>
]]></content:encoded>
			<wfw:commentRss>http://www.cslog.cn/Content/xiaomi-ai-box-2-home-assistant/feed/zh-hant/</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
	</channel>
</rss>

<!-- WP Chinese Conversion Full Page Converted -->