文 | 田威 AI
DeepSeek 火爆,AI 學習的熱潮也吹到了我們公司,上周給公司的同事做了一期關于 AI 入門的分享,感覺內(nèi)容非常適合小白入門了解 AI,于是整理成公眾號文章,作為我 AI 入門科普的總集和收尾,后面會更專注寫一些進階的內(nèi)容。
如果你當下對 AI 還是云里霧里,半知不解,那么非常適合閱讀這篇文章,讀完就能幫助對 AI 建立一個基礎的認知,簡單了解 AI 的技術原理,AI 生成內(nèi)容的本質(zhì),為什么能生成內(nèi)容,AI 能做什么,提示詞如何寫,以及實用好用的 AI 工具和 AI 幻覺應對的方法等。
如果本文幫助到了當下的你,歡迎點贊轉(zhuǎn)發(fā),你的每一個互動都是我持續(xù)創(chuàng)作的動力。
OpenAI 的 ChatGPT 發(fā)布在 2022 年,為什么 AI 會在這個時候發(fā)布?主要是因為這三樣東西滿足了條件:
1. 算法——機器學習范式的突破
2017 年 Google 團隊開創(chuàng)的 Transformer 架構,通過神經(jīng)網(wǎng)絡模型學習語言規(guī)律,實現(xiàn)文本理解與生成。如 Transformer 架構可捕捉長距離語義關聯(lián),GPT 系列模型通過自注意力機制預測詞序列。
2014 年生成對抗網(wǎng)絡(GAN)的技術創(chuàng)新,通過生成器與判別器的對抗訓練,實現(xiàn)圖像 / 視頻的創(chuàng)造性輸出。如 Phenaki 模型可根據(jù)文本生成連貫視頻,DALL · E 能跨模態(tài)生成圖像。
當前的 AI 工具基本都基于 Transformer 架構和生成對抗網(wǎng)絡(GAN)這兩個算法技術,算法的突破是當前 AI 誕生的原因之一。
2. 數(shù)據(jù)——海量知識庫的積累
AI 需要學習海量的高質(zhì)量數(shù)據(jù)才能從中找到規(guī)律,模仿人類生成內(nèi)容。
隨著互聯(lián)網(wǎng)和生產(chǎn)力的發(fā)展,近二十年人類生產(chǎn)的內(nèi)容可能比過去幾千年還多,這些海量的數(shù)據(jù)積累讓 AI 有了足夠的 " 學習資料 ",可以通過學習去了解分析分析數(shù)據(jù)中的語法結構、視覺特征等潛在規(guī)律從而模仿人類進行創(chuàng)作。
如果沒有這些高質(zhì)量的數(shù)據(jù)資料,AI 可能根本找不到人類文本的規(guī)律。
3. 算力——硬件性能的飛躍
過去人類的顯卡算力沒有辦法處理如此海量的數(shù)據(jù),現(xiàn)在像 NVIDIAH100 集群可以支持 1750 億參數(shù)模型訓練,再有分布式計算技術的發(fā)展,像谷歌 TPUv4 實現(xiàn)了每秒 2.3exaflops 運算能力,這種超強算力讓 AI 模型訓練時間從幾年縮短到幾周甚至幾天。
綜上所述,簡單來說,算法,數(shù)據(jù),算力三者都滿足了 AI 誕生的條件!
二、為什么 AI 能生成內(nèi)容?
以 DeepSeek 為例來說明。
如果用一個比喻來描述 DeepSeek,它大概就像是你的一位非常博學多才的朋友,讀過浩如煙海的書籍,還能瞬間在腦海中建立起各種知識之間的聯(lián)系。這就是現(xiàn)代大語言模型的工作方式,而支撐這種能力的核心,就是上文提到的 Google 團隊開創(chuàng)的 Transformer 架構。
Transformer 最厲害的本事,就是它的"注意力機制"。打個比方,當你在看一本書時,普通人需要從頭讀到尾,而 Transformer 就像是一個 " 超級讀者 ",能夠一眼就找到文本中最關鍵的信息,并迅速理解它們之間的關聯(lián)。
DeepSeek 在 " 成長過程 " 中 " 閱讀 " 人類積累的海量知識,從枯燥的維基百科到優(yōu)美的文學作品,從前沿的學術論文到專業(yè)的技術文檔,通過不斷預測句子中缺失的詞,逐漸掌握了語言的規(guī)律,知道了某個詞后面出現(xiàn)哪個詞的概率更大。
所以 AI 生成內(nèi)容的方式是概率最大化,也就是 " 猜 ",通過海量數(shù)據(jù)來預測下一個單詞,而不是真的理解了人類的說的到底是什么意思。
也就是說 AI 只是一只鸚鵡,它并不是真的理解現(xiàn)實世界,也不是通過邏輯推理來回答我們的問題。
現(xiàn)在的大語言模型跟我們在影視劇中看到的,比如像威爾 · 史密斯主演的《我,機器人》中的人工智能完全不一樣,我們與 AGI 距離依舊無限遙遠,當然可能并不是壞事。
三、AI 到底能做什么?
1.AI 基礎能力
DeepSeek 火爆之后很多人對 AI 有了不切實際的期待,以為 AI 什么都能做,這是一個很大的誤區(qū)。就像我上文說的,現(xiàn)階段 AI 的主要能力主要是生成文本等,所以可用范圍基本局限在內(nèi)容創(chuàng)作當中。
下圖我就羅列了四種最基礎的 AI 能力:文本生成、圖片生成、視頻生成和音頻生成。AI 是什么,AI 之于我是創(chuàng)造的源泉,創(chuàng)造的能力和創(chuàng)造的工具。
具體的制作路徑是先用 DeepSeek 生成腳本和具體的文案,然后再使用 Whisk 生成靜態(tài)圖片,用可靈根據(jù)靜態(tài)圖片生成視頻畫面,最后用剪映的 AI 配音功能生成音頻,合成為一個完整的視頻。
2.AI 進階能力
基于上面這些基礎功能,現(xiàn)在的 AI 還延伸出了一系列的其他的能力,像豆包聊天機器人、秘塔 AI 搜索、Manus 這種都是對某方面的能力進行了強化,或者與其他工具組合后誕生的 AI 工具。
Manus、秘塔 AI 搜索等我們都可以理解為 AI 智能體,原本 AI 智能體的定義是能夠感知環(huán)境、做出決策并采取行動以實現(xiàn)特定目標的人工智能系統(tǒng)。但現(xiàn)在我們對其定義已經(jīng)泛化了,像豆包上面的各種聊天機器人都被稱為智能體。
順著這個邏輯,現(xiàn)在市面上的智能體可以被理解為一個具有輸入 - 處理 - 輸出能力的人工智能系統(tǒng),核心在于對信息的處理和響應能力,不同程度的智能體在自主性、感知廣度和決策復雜度上存在差異。
豆包上面的智能體聊天機器人我們就可以理解為是初級智能體,而像 Manus 這樣的 " 通用型 AI 智能體 " 相對就更高階了,能做的事情也更多。
基礎如豆包聊天機器人,可以根據(jù)我們設定的 prompt 做出特定的回復。下圖就是我做的一款男友聊天器,他會像男朋友一樣和你聊天,給到充足的情緒價值。
相比直接和基礎大模型聊天,AI 搜索工具給到的內(nèi)容更全面,更詳細,幻覺發(fā)生的概率也更低。
做一份行業(yè)趨勢分析,旅游攻略,抑或編寫一個小游戲這些功能都不在話下。而且全程無需人工干預,它自己就一步步去完成。
隨著技術的進步,智能體將擁有更高級的特性,如更強的自主性、更廣泛的環(huán)境感知和更復雜的決策能力。
AI Agent 也確實是 AI 發(fā)展的重要趨勢之一,它們正在彌合強大 AI 能力與實際應用場景之間的鴻溝。
對普通用戶而言,AI 不再是一個需要精心 " 喂養(yǎng) " 提示詞的工具,而是一個能真正理解并執(zhí)行任務的助手。對企業(yè)而言,AI Agent 能大幅降低 AI 落地的門檻,讓更多行業(yè)和場景能夠切實享受到 AI 帶來的效率提升。
未來的某個時刻,或許人類真的就可以脫手生產(chǎn),擺脫重復性的勞動,去從事更有創(chuàng)造性的工作了。
四、如何與 AI 交流?
現(xiàn)在大多數(shù)人對 AI 的重點還是放在了無所不知上,卻忽視了 AI 沒有現(xiàn)實世界的體驗。如果要用一個比喻來形容 AI,那" 全知全能的實習生 "再合適不過了,什么都懂,但什么都不會。
所以怎么和 AI 溝通就變得非常重要了。
這一塊我重點分享幾個適合普通人的 AI 提示詞技巧和溝通技巧,學會了這幾個技巧,我們在和 AI 溝通時效率會高很多。
1.AI 提示詞技巧
語言的邊界是世界的邊界,AI 能力的發(fā)揮取決于我們語言的運用。
AI 提示詞(Prompt)是用戶與 AI 大模型交互的關鍵工具,其本質(zhì)在于借助自然語言指令引導 AI 生成特定內(nèi)容或達成任務的輸入信息。
例如,輸入 " 撰寫一篇有關火星探索的科普文章 ",AI 便會依據(jù)該提示生成相關內(nèi)容。提示詞的清晰程度和詳細細節(jié)直接對 AI 生成內(nèi)容的準確性與質(zhì)量產(chǎn)生影響。
一般來說我會將提示詞分為以下三種,這三種是可以同時出現(xiàn)的,只不過某些簡單的需求使用簡單提示詞就夠啦。
我們寫提示詞的時候可以遵從這三種來。
任務型提示詞
直接指定任務,像 " 翻譯以下英文段落 " 或者 " 生成 300 字的產(chǎn)品文案 ",適用于需求明確的場景。
角色型提示詞
經(jīng)由設定角色來引導 AI 輸出,例如 " 假設您是資深營養(yǎng)師,設計一周減脂食譜 ",這樣能夠增強專業(yè)性與創(chuàng)意性。
結構化提示詞
采用模板化指令(如 CRISPE 原則:清晰、角色、步驟、示例、反饋),以提高 AI 的理解效率。例如:
角色:資深文案策劃
任務:撰寫新能源汽車廣告語
要求:包含科技感、簡潔有力、目標用戶為 30-40 歲男性
``````
經(jīng)典提示詞賞析
如果還是對提示詞一知半解的,可以直接去閱讀 DeepSeekAPI 文檔里面的提示詞庫,了解學習寫法。
鏈接:https://api-docs.DeepSeek.com/zh-cn/prompt-library/
現(xiàn)階段 AI 由于上下文,模型能力等問題,其實在處理復雜任務的時候時常會出現(xiàn) " 偷懶 " 這種情況,這種時候就需要我們幫 AI 拆解任務。
接下來用寫一篇 " 遠程辦公的未來發(fā)展 " 的文章為例,告訴大家怎么一步步指導 AI 完成高質(zhì)量寫作。
不要指望 AI 能一次性完成你想要的內(nèi)容,在使用 AI 時要調(diào)整好心態(tài),把它當作一個博學但經(jīng)驗尚淺的實習生。它知識面很廣,但需要你的引導才能交出令人滿意的作業(yè)。
比如我們讓 AI 寫一個咖啡店的開業(yè)方案,剛產(chǎn)出的第一版大概率是不符合我們的需求,我們可以通過繼續(xù)提問的方式讓它優(yōu)化內(nèi)容,直到符合我們的要求。
以咖啡店開業(yè)方案為例,AI 寫的第一版方案沒有很好地突出 " 大學生 " 這個目標客群。這時候,別急著否定,而是可以這樣優(yōu)化對話:
五、2025 年 AI 工具推薦
之前我寫過一篇 2025 年 AI 工具推薦的文章,已經(jīng)非常全了,感興趣的朋友可以閱讀一下這篇:從 ChatGPT、DeepSeek 到可靈、豆包,2025 年 AI 工具全景圖,從入門到精通,這一篇就夠了
六、AI 使用注意事項
最后再講一個要點,AI 都會有幻覺,尤其是 DeepSeekR1,幻覺率高達 14%,所以千萬不要輕信 AI。
AI 幻覺就是 AI 編造看似合理但實際錯誤的信息。比如你讓 AI 引用論文,它可能會虛構不存在的論文。就像早期 AI 會告訴你北京有埃菲爾鐵塔,因為它把 " 北京是中國首都 " 和 " 巴黎有埃菲爾鐵塔 " 這兩個知識點錯誤地混在了一起。
其次,訓練數(shù)據(jù)本身可能有錯。AI 就像只能根據(jù)讀過的書回答問題,書里有錯,回答自然也會錯。
再者,過擬合問題。這就像學生不僅記住知識點,還把教材的每個例題、每句話都背下來,遇到不同的場景時就懵了。
此外,AI 的上下文限制 ( 約 64K 或 128K 詞 ) 和被設計成必須回答的傾向,也會導致它在不確定時編造答案,就像考試時不會的題也要瞎寫一樣。
技術上,可以用更高質(zhì)量的數(shù)據(jù)集,對數(shù)據(jù)嚴格篩選清洗,或者利用人工反饋引導模型。還可以讓 AI 生成多個答案再投票選出最靠譜的答案,或用思維鏈讓 AI 展示推理過程。
日常使用時,給 AI 設置明確邊界,比如限定在特定范圍內(nèi)回答,或明確要求基于事實不要推測。也可用不同 AI 交叉驗證,或利用 RAG 技術提升準確度。
RAG 技術是現(xiàn)在減少 AI 幻覺的主流方法。相當于給 AI 配個專業(yè)知識庫,先檢索相關事實,再基于這些信息回答。普通 AI 像是在參加閉卷考試,而使用了 RAG 技術的 AI 是開卷考試,自然更準確!
AI 幻覺也不一定全是壞處,它也能啟發(fā)創(chuàng)意,提供意想不到的觀點和靈感。在藝術領域,可能帶來獨特效果和驚喜。在科研中,雖然最初可能是錯誤的假設,但可能啟發(fā)新的研究方向,拓寬思路。
借用《三體》的話:" 不要輕信,不要輕信,不要輕信 "。特別是健康問題上,不要拿 AI 的診斷建議質(zhì)疑醫(yī)生,或自行治療。時刻保持警惕,別盲目相信 AI。
更詳細的內(nèi)容也可以看這篇內(nèi)容:為什么 AI 這么能編?深度解析大模型的 " 幻覺 " 機制
最后,簡單總結一下。
隨著 DeepSeek 的走紅和 AI 技術的普及,我們正站在人類認知革命的風口浪尖。從算法的突破、數(shù)據(jù)的積累到算力的飛躍,AI 的誕生不是偶然,而是人類智慧長河中的必然產(chǎn)物。
未來已來,但未來不是由 AI 決定的,而是由我們每一個人共同塑造的。讓我們懷著好奇心和批判精神,與 AI 共同創(chuàng)造一個更加美好的明天。
在這個 AI 與人類共同演進的新紀元,希望這篇入門科普能為你打開認知的一扇窗,讓你不再對 AI 感到云里霧里,而是能夠自信地駕馭這個強大的工具,在自己的領域創(chuàng)造更多可能。