所有流行,都必須通過技術實現,而技術本身也越來越成為一種流行
編者按:本文來自微信公眾號Kindergarten Green(ID:Kindergarten Green),創業邦經授權轉載。
(資料圖)
兩周前,北京大學新聞傳播學院教授胡泳在他的同名公眾號上發布了一篇題為《技術加速著也改變著流行》的文章,提出了「所有流行,都必須通過技術實現,而技術本身也越來越成為一種流行」的觀點。時下熱門的AI話題,也恰好印證了這句話。
胡泳是最早帶領我接觸互聯網的老師,也是國內最早從事互聯網和新媒體研究的人。早在1997年,他就出版了《網絡為王》一書,首次向國內受眾介紹了互聯網的誕生、發展、現狀以及未來趨勢。26年過去,作為互聯網科技日新月異的見證者和傳播啟蒙者,早在ChatGPT等大語言模型引發眾聲喧嘩之前,胡老師就在密切關注AI了。
我好奇在對新技術的想象力上,學界和業界的關注重心有什么不一樣;從傳播學的視角,胡老師又將如何思考AI對各行業和人類社會的具體影響。借著校慶返校之機,我有幸約到胡老師,于是有了這次訪談。
Q:每一次技術革命都會引發人們很多的想象,您是什么時候開始注意到OpenAI和LLM的?對于您來說,真正相信這件事情會成為下一個新范式的拐點是什么時候?是什么事情觸動了您?
我剛出版了一本書《流行之道:在潮流中把握真實世界》(北京聯合出版公司,2022年11月第1版),里面提到一個觀點——用戶的快速增長是最簡單地判斷一件事情是否可以成為流行的標準。2022年11月30日ChatGPT上線,5天后用戶數超百萬,2023年1月月活用戶就過億了。
什么是流行?這就是流行,這就會讓人產生相信的力量。
Q:我有一個不知道是不是對的觀察。學界對于新技術的出現通常是批判性的接受,抱有謹慎的樂觀,而業界通常是先用了再說,能立刻帶來顯而易見的好處,風險意識可以暫且后置。對于人工智能的發展對人類社會可能帶來的改變,您怎么看待?
從整體來看,業界對新技術的應用和發展,中美都差不多,大家總是企圖找到下一個大風口,期待可以借此獲得高速增長,創造用戶數以十億計的「殺手級」應用。
之前美國CBS電視臺《60分鐘》的主持人Scott Pelley采訪Google的CEO Pichai時,曾有過這樣兩段對話:
Pelly:你認為社會已經為即將到來的事情做好準備了嗎?
Pichai:你知道,我有兩種思考方式。一方面,我覺得沒有,因為我們作為社會機構思考和適應的速度,與技術發展的速度相比似乎不匹配。另一方面,相比任何其他技術,我看到更多人在其生命周期的早期擔心它。
Pelly:你不完全了解Bard是如何工作的,卻把它放在社會上?
Pichai:讓我這樣說吧,我認為我們也沒有完全理解人類思維是如何運作的。
Pichai的觀點反映了業界普遍的功利性,只要這個事情是經營中不得不做,或者牽涉到很大市場的,就會做,無論有沒有風險。業界認為社會會慢慢消化和承受這個風險。
但這最終會埋下很多隱患。以「人工智能教父」而為大家所熟知的Geoffrey Hinton 從Google離職時曾表示,他對自己終身從事的工作是后悔的,因為可能會威脅到很多人的工作,甚至人類的生存。如果出現自動化和智能化武器,機器人又有編碼能力,就可能通過自動化編程武器殺害人類。大家都知道在GPT-4火熱出爐、人工智能軍備競賽方興未艾的形勢下,包括Elon Musk和蘋果公司聯合創始人Steve Wozniak在內的千余名科技領袖簽署了一封公開信,懇請研究人員在六個月內暫停開發比GPT-4更強大的人工智能系統。但其實,馬斯克上一封有關人工智能的公開信發表在2018年,呼吁制定「針對致命性自主武器的法律」,因為自動化武器可能會無差別殺人,沒有倫理限制。
其實早在OpenAI出來之前,Google已經研究AI很多年了,但一直比較小心克制,OpenAI的發布是對Google謹慎態度的巨大挑戰。微軟CEO Satya Nadella 甚至對Google公開叫板,說希望看到Google「跳舞」。他還說,「我想讓人們知道,是我們讓他們跳舞的」。
「Don’t Be Evil(不作惡)」在 2018 年4月之前一直是 Google 的座右銘和行為準則 ? substack
我認為一個大科技公司的CEO這么輕佻地說話是很不合適的。從商業邏輯上講,微軟的Bing只有3%的市場份額,Google 有91%。Bing搞了這么多年才搞到3%,說明這個產品是不成功的,但是微軟現在找到了這個機會,來撬動搜索引擎市場,它想做攪局者。
業界是軍備競賽邏輯,社會如果不加以干預,就會很麻煩。一旦把人工智能武器化,結果會不堪設想。現在很難達成一個關于人工智能的國際協議,缺少全球治理框架和談判機制。中美都以對方發展AI為由做自主研發,很難談判。沒有制約地粗放增長,就像蠻荒的西部一樣,會發展出什么威脅人類的東西,都是不確定的。
Q:作為觀察者,在移動互聯網時代,您覺得有沒有一些關于行業變遷的假設,在當時看來邏輯非常正確,但最終被證偽了?原因是什么?
上一波大的變遷是PC到移動,以iPhone手機面世為標志。當時我翻譯尼葛洛龐帝的《數字化生存》①,他說未來人們一定會以手指操作界面。這個預測非常精準,是針對交互方式的預測,但尼葛洛龐帝沒有預測到無線的爆發。
在無線出現以前,我們的通訊硬件路徑是電纜,埋在地下。后來有了光纖,容量更大,但卡在怎么入戶上(即最后一公里)。當時人們還沒有想到可以直接換無線。當然無線基站的連接仍然靠光纖。
無線電基站 ? bzzup
那時候無線的管理權在政府手上,頻譜②也被嚴格監管,但無線最終大行其道。蘋果搞出的APP模式,是完全建立在無線之上的,這也是沒有預測到的。
我一直認為APP的發展對互聯網來講并不是好東西。我們之前講WWW是無窮的鏈接,有用且有益,但APP就是不能互相跳轉的信息孤島,這其實違背了互聯網最初的意義。
現在有很多APP平臺壟斷者,會用數據綁架你,讓你被鎖死在某個APP里。用戶把個人數據貢獻給平臺,平臺決定一切,離開了就寸步難行,變成了斯德哥爾摩癥③患者。
①《數字化生存》:1995年出版,作者尼葛洛龐帝,美國麻省理工學院教授、《連線》雜志的專欄作家,媒體實驗室創辦人。該書描繪了數字科技為我們的生活、工作、教育和娛樂帶來的各種沖擊和其中值得深思的問題,是跨入數字化新世界的最佳指南。
②頻譜:頻率譜密度的簡稱,是頻率的分布曲線。復雜振蕩分解為振幅不同和頻率不同的諧振蕩,這些諧振蕩的幅值按頻率排列的圖形叫做頻譜。頻譜廣泛應用于光學和無線電技術等方面。在廣播及通信的領域中,頻譜會由許多不同的訊號來源共享。每個廣播電臺及電視臺所傳送訊號的頻率均需在各自指定的范圍內,稱為「頻道」。
③斯德哥爾摩癥:又稱斯德哥爾摩綜合征、人質認同綜合征,是指犯罪過程中的被害人對于加害人產生情感,并結成融洽、友好的關系,甚至反過來幫助加害人的一種情感聯結。
萬維網是信息年代發展的核心,也是數十億人在互聯網上進行互動和瀏覽的主要工具。
Q:您提到APP讓信息無法互聯互通,而大模型的出現加上背后的Plug-in的生態,可能會再次讓信息互聯互通,您如何看待這一現象?
這是把雙刃劍。當大模型接入到開放的互聯網之后,可能會出現更多風險,因此要做相應限制。這種限制既包括對模型本身的,比如有些問題它會說不合適回答,不能觸犯基本的人類倫理,也包含針對插件的,比如要符合它的安全要求才能接入大模型的生態。
這和蘋果治理APP商店類似,最后能成為什么樣子,能不能真正實現互聯互通和確保信息的安全,是開發者和大模型之間的一場博弈。另外現在有些插件本身就是應用的聚合,如果把背后鏈接數萬種軟件的插件接進來,一方面的確可以做很多事情,但同時治理風險也會成倍增加。
Q:您之前在文章中提到,在過去三十年,網景的網絡瀏覽器、Google的搜索引擎和蘋果的iPhone是在移動互聯網時代真正顛覆性的創造。這三者無論硬件或軟件,其實都是人們獲取信息的入口。有關于新入口的想象,也是這一波AI浪潮人們憧憬的大機會,它可能會重塑原有的移動互聯網生態。AI新交互體驗和ChatGPT的對話界面似乎正是這一波AI浪潮興起的重要推動力,對此您怎么看?
從用戶角度來說,ChatGPT為什么會爆炸?是因為它的界面非常簡單,文本輸入上手簡單,不需要下載、學習。之前人工智能都在后臺,比如智能倉庫、各種企業效率優化和算法推介,專業人士才會用,消費者是沒有直觀感受的。
但ChatGPT讓消費者第一次直觀感受到了人工智能的魅力。比如一個男生想寫一段撫慰的話給安全感不足的女朋友,ChatGPT可能真的能幫到他。我把它叫做人工智能強大的能力和互聯網用戶無限創造力的結合。這也是人工智能第一次真正走向了「社會化」。
語言模型的界面設計直接影響了ChatGPT向非人工智能專家的擴散。就好像你第一次拿到iPhone的時候,手指觸碰屏幕就能完成任務指令,非常簡單。瀏覽器也一樣,輸入網址、回車,就能一鍵抵達。
Q:基于AI的新交互體驗,您覺得新的入口可能會是什么形態?
3月份的時候,OpenAI說它要開放插件,允許第三方接入它的生態。這就意味著ChatGPT可以讀取各種數據源(之前是自有數據庫訓練),可以開放給任何第三方開發者。如果我是Tripadvisor,就可以在它的應用里給用戶訂票、回答問題;數據分析、教育、旅游服務、軟件集成服務商等也會逐步出現。
可以想象,未來可能會有各種各樣的個人助手,來解決每一個人的各種問題,這樣的界面+plugin的廣泛應用可能會讓信息獲取、事務處理更高效。
Q:它有沒有可能顛覆原有的APP生態,成為一個超級助手?
如果OpenAI想做底層,可能不會把自己變成一個超級APP,而只提供基礎設施。它肯定是有野心的,因為它現在的插件架構就類似于蘋果商店,暫且稱它為「插件商店」。
蘋果會收蘋果稅*,很難說OpenAI會不會收「插件稅」。如果它想盡快商業化,也可能會選擇走蘋果的老路,但也要承擔被詬病壟斷的風險,就像現在的蘋果一樣。
蘋果稅:指蘋果對于App Store的收費APP都會抽成30%的行為。
喬布斯圍繞蘋果商店創新的商業模式 ? CSDN
如果用戶的需求場景轉移到GPT這種界面上,開發者都想在插件商店占領一席之地。其實百度也想做這個事情,有行業大模型,最后肯定會發展到企業,讓B端客戶、C端消費者都接入到插件經濟當中。
Q:這對大模型提出了哪些要求?可能存在什么風險?
要實現從「APP經濟」到「插件經濟」,都有賴于OpenAI運作良好,和開發者處好關系,解決好如何收費、安全問題等問題。開發者積極踴躍,平臺才會繁榮。最近三星禁止使用ChatGPT,也是擔心數據泄露問題。微軟說要做私有ChatGPT,通過微軟云進行云存儲是絕對安全的,但需要支付高價。
如果放到互聯網上,會帶來更多的麻煩。以前使用專有數據庫訓練,還能控制,但現在都是實時的,Bing想做以人工智能為動力的搜索引擎,能抓取實時數據,信息價值更高,但風險也會隨之更大,傳遞錯誤信息、對人腦進行大規模操控,都是可能的。大多數用戶不知道也不具備識別能力。
Q:如果AI可以重塑產業,您覺得哪種特征的產業可能受到的沖擊最早?
我們現在討論最多的是AIGC,本質上是文本生成器,影響的是內容產業。我現在可以基于Stable Diffusion或者Midjourney做圖,隨著技術的發展和對它們的熟悉,未來還可以做音頻、視頻,甚至整部游戲、電影等。
對于這一情況,早期大家都是歡呼的,就好像最初人人都可以做自媒體,UGC具有民主化的潛力。對應到現在,每個人都可以成為藝術家。只要我精妙描寫想要什么畫,在工具里輸出提示詞,就能完成繪圖。盡管現在水平還有待發展,但未來可能會生成更驚艷的效果,畫出插畫師也畫不出的畫。在這一輪的內容生產中,生產者又獲得了平等的權力。
我承認平權是好事,一個人有能力發布,肯定是了不起的力量。但我預測最終內容生產不可能是長尾。你可以生產內容,但它未必能產生影響力。我認為UGC革命已經失敗了,雖然當年我也是它的鼓吹者。信息生產的權力依然是個二八定律。
AIGC最終的路線也是一樣的。我們還在早期歡呼階段,但往后,有人的提示能力就是比另一部分人強。內容生產會回到老路上,從發散重新收斂。
AI繪圖生成模型Stable Diffusion可以通過圖片(左)提示,生成指定效果的新圖(右)?stable-diffusion-art
Q:作為老師,同時也作為父親,您怎么看待AI對于教育行業的沖擊?
目前AI對中國教育界沖擊還沒有完全顯現。但在美國,大家現在普遍在恐慌兩個事情:
1、作弊。之前論文有查重機制,現在老師需要知道怎么識別作業是否是ChatGPT寫的。GPT是生成模式,意味著互聯網上沒有歷史數據信息,查重很難查到。為了應對這一情況,普林斯頓的學生開發了一個GPTZero的智能監測工具,用技術對抗技術。有的高校也會直接禁用GPT。
GPTZero網頁界面。它是一種預測文檔是否由大型語言模型編寫的分類模型,提供句子、段落和文檔級別的預測。
? https://gptzero.me/
2、考試本身。我們看到GPT-4能順利通過法律、醫學考試等。考試原本是考核錄取學生的標準,如果GPT都能考過,會對考試形成壓力,它關系到教育的底層邏輯。
這兩點對教育沖擊很大,會影響到底如何判定一個學生是好是壞。對于這樣的挑戰,簡單粗暴的操作方式就是禁,但禁肯定不奏效,越禁越吃香,長期也禁不了,畢竟對學生的誘惑力太大了。
不如倒過來想它可能帶來什么好處?重新想想以往教育模式應該如何改進?GPT給了我們一個警醒:原來的教育模式本來就存在問題。
比如作業到底對學生成長有沒有用?中學生作業太多,需要家長要幫他完成,這本身就很扯。作業量和學生成績的好壞真的有因果關系嗎?學習好的孩子不見得是因為作業做得好,現在之所以不停刷題,是考核方式決定的,考核的邏輯與刷題的邏輯一致。
GPT-4 和 GPT-3.5 在美國一系列考試中的成績。OpenAI 透露 GPT-4 在模擬律師考試中得分前 10%,在 LSAT 考試中排名第 88 個百分點。這些分數將使 AI 有資格進入美國排名前 20 的法學院,與其前身 ChatGPT 3.5 相比有了顯著進步。? OpenAI
教育哲學家杜威*之前也探討過學生在學校里到底學習什么。作業的目的是從顯性課程中學習,但學生也從所參與的活動中學習,這叫做附帶學習。杜威認為,附帶學習比學校中有關知識的學習更重要,因為它可以培養學生面對未來生活最根本的態度。永遠有會考試的學生,但高分的學生未必是好的學習者,或者反而缺乏自主學習的能力。自主學習能力通過作業衡量不了,所以我們需要倒過來思考作業的有效性有多高、以及是否應該在課堂中完全不以作業為導向,而轉為以討論、協作、做項目為導向,來進行考核。
在這種情況下,GPT不僅可以用,甚至還能變成教學工具。比如老師讓學生用GPT寫作業,再分析它哪個地方寫的不好,評價之后再自己寫。這時GPT就可以成為鍛煉學生辨識信息能力的教學工具。通過這個過程,還可以考查你有沒有媒介素養,進而提升「人工智能素養」,分辨人工智能給出信息的真偽,以及判斷它的意圖。
*約翰·杜威(英語:John Dewey,1859年10月20日—1952年6月1日)是美國著名哲學家、教育家、心理學家,被認為是美國實用主義哲學的重要代表人物,也被視為是現代教育學的創始人之一、機能主義心理學派的創始人之一。
Ditch the Textbook 的 Matt Miller 曾討論過 ChatGPT 在 K-12 教育中的用途
? https://usergeneratededucation.wordpress.com/
Q:您覺得面對ChatGPT的信息沖擊,教育屆可以如何應對?
我認為應該把媒介素養變為大學通識課。如果沒有識別真假信息的能力,對現在的孩子來說,會是一生的致命傷。無論什么學科,媒介素養可以轉化成信息工具,還可以提升學生的提問能力。通過評價ChatGPT的回答來考核你對問題的理解與判斷,對培養批判性思維也有極大幫助。
人工智能對于受教育者非常大的影響是惰性和思維依賴。在人工智能時代,批判性思維的重要性只多不少。對教育者來講,假專家和真專家之間的鴻溝也會變得非常明顯。如果對某個學科沒有很深的理解,可以蒙過一般用戶,但蒙不了真專家。
Q:您覺得未來學校和老師在教育中扮演的角色可能發生什么變化?
GPT可以幫助減輕教師瑣碎工作的負擔,騰出更多時間提升自身能力,幫助學生提高思維素質。有了GPT,老師就不能偷懶了,不能總是留給學生們信息總結和梳理的作業,而要考慮作業對他們思維的訓練和挑戰性。老師需要有更強的教學能力,不僅要懂得引導學生學習,也要組織大家進行有啟發性的討論。理想狀態是師生雙向互利,共同進步;或者根據學生的個性化專業需求,老師提供一對一的定制化教育方案。
國外的教育工作者Torrey Trust和Andrew Herft創建的一些指南,用于在教育環境中使用 ChatGPT,包括教師的用途,例如制定課程計劃和評估以及學生如何使用它。
? https://usergeneratededucation.wordpress.com/
Q:您之前談到了流行和消耗的關系,并表示「沒有電,這些東西(ChatGPT、元宇宙、區塊鏈、數字貨幣)都玩不轉」,也提出了「追逐流行時,可能需要把“能源有限”時時放在心里」。我理解這里的「能源」一方面是環境資源,另一方面也是人自身的注意力資源。作為「流行」這一社會文化的觀察和研究者,您覺得我們應該以怎樣的態度和行動面對新技術,才不至于「消耗」?
這里的消耗首先是能源和人力資本的耗費。除了能源,人工智能背后有很多對人力資源的不當使用。其次是注意力資源的耗費,這和媒介素養有關系。你想不受技術的影響是不可能的,但要有很強的意識,學會如何更好地使用技術,有意識、有能力地培養好的媒介接觸習慣。
第一要優化信息來源,建造一個多樣化、高頻率的信息來源是基本能力。第二是在社交網絡中篩選給你帶來好的信息資源的人。人的選擇決定了信息的質量,要建立自己的高質量人脈網絡。第三是提高媒介素養。清醒分辨信息的好壞,不被壞的信息誤導,不會隨大流或者從眾。
Q:目前國內外都有不少做對話式人工智能平臺的公司出現,比較有代表性的是海外的Chracter.AI①和國內的Minimax②孵化的Glow,根據公開信息,這兩家公司的估值都已經達到了10億美金。這里面可能基于一種假設,就是超級助理會成為未來,而誰能率先通過人機交互的方式低成本獲取活躍用戶,并且和他們保持一定時間的深度交互,就有機會在上面構建更具吸引力的生態。您相信這種假設嗎?相信或者不相信的理由可能是什么?
我覺得ChatGPT變成智能助理的潛力挺大的,但是不是針對個體用戶提供服務還不知道。尼葛洛龐帝之前也說過,如果要想讓一個老祖母輕松地使用電腦,一定要有個「智能代理人」③替她來完成操作。它需要很多數據來熟悉她,甚至預測需求。
互聯網抓取用戶數據帶來了隱私泄露的風險
如果我是一個寫作者,AI通過獲取我的日常寫作文稿、閱讀偏好等數據,幫我高效地完成書籍初稿,是有前景的。
按照創新擴散理論,如果AI能滿足早期采用者的需求,它就有很大價值和商機,但同時也存在巨大的發展阻礙,也就是隱私問題。我如此依賴它,離開它我會不會啥也不會干了;如果它背叛我,會帶來很多麻煩,我該怎么信任它?
隱私問題是數字社會當中最大的問題,它橫亙在所有新技術發展和商業模式之上。Google的語言模型除了抓搜索結果之外還抓Gmail郵箱,在用戶不知情的情況下就抓取走了。OpenAI 短暫在意大利被封鎖,因為意大利數據保護當局認為它違背了GDPR。大數據的進化和隱私保護是相背離的。中國的隱私保護很差,很難預測這類服務在中國的發展情況。
①Character.AI 由 AI 和大型語言模型先驅 Noam Shazeer 和 Daniel De Freitas 于 2021 年創立,是一個對話式人工智能平臺,使用大型語言模型、深度學習算法,可以識別、總結、翻譯、預測和生成文本等內容,為個人提供個性化的人工智能體驗。該平臺允許任何人創建角色并與之互動,允許用戶構建自己的個性化用例并與他人分享。
②MiniMax成立由前商湯科技副總裁、通用智能技術負責人閆俊杰于2021年創立,致力于成為通用人工智能時代基礎設施建設者和內容應用創造者。作為國內擁有文本、語音、視覺多種模態融合的通用大模型引擎能力,并打通產品全鏈路的技術公司,MiniMax團隊致力于用領先的通用人工智能引擎技術,通過多場景和多維度應用及交互,以用戶反饋量級的提升和多模態AI技術一體化的應用實踐,推動通用人工智能技術新范式變革。
③即智慧型代理。在人工智能領域,智慧型代理指一個可以觀察周遭環境并作出行動以達致目標的自主實體。它通常是指(但不一定是)一個軟件程式。「智慧型代理」是目前人工智能研究的一個核心概念,統御和聯絡著各個子領域的研究。
Q:您相信人真的會對人工智能產生情感依附嗎?像電影 Her 一樣。對于AI Native一代,您覺得他/她們可能會變成什么樣子?對于AI的原生性的接受會怎樣重構他們的真人社交關系?
流行的原因有三個因素,首先是用戶因素,其次是產品因素,第三個是擬人化。
電影Her 截圖,影片講述了在不遠的未來,人與人工智能相愛的科幻愛情故事。?豆瓣
你被AI打動是因為它像一個人,人有把周圍事物擬人化的傾向。Bing開放后,給使用者帶來一種機器人有情感、有記憶、企圖操縱人類的感覺,這都是擬人化帶來的情感依附。ta是否會達到Her或者機械姬的水平?人愛上了人工智能,最后會產生怎樣的結果?未來,我們一定會進入一個人機混雜的社交場景,但機器人是沒有道德和情感的。
擬人化的第一個特點是外表,第二是對彼此的精神狀態有要求。擬人化能讓機器與人產生共鳴,但有很大的危險。機器人擬人化之后,ta就相當于擁有了某種權力,這個權力會和人的權力發生沖突,不能和諧共處就會打起來,結果一定會有一方滅亡。
上面講的任何一種情況都是擬人化的極致結果,對于「毀滅派」來說,機器人可能比人更有權力,會帶來毀滅。另一派不相信機器人會統治人類,認為它們會有倫理,不會殺害人,然而這么認為還是因為假設了機器人擬人化的特征。擬人化是很危險的。
Q:如果真的有一天出現全能超級助理,您作為人類代表,希望對ta說什么?
一個全能超級助理的出現意味著什么?它全知全能且自足,不假于任何外物,這不就是我們所說的上帝屬性?這是很可怕的。因為人類本身就不是全知全能的。
如果全能超級助理真的出現,我希望ta是部分有知、部分有能,且不完整的。因為人類正是認識到了自己能力的局限,才會愿意融入社會,才有認知的謙卑,而不是傲慢。愿我們和超級助理都能時刻自省,時刻謙卑。
改變世界常常被視為瘋狂冒險家的宣言,也被當做創業者的理想主義。然而,這會不會也是一種人類認知上的傲慢?雖然大家仍在吐槽ChatGPT總是一副一本正經地胡說八道的樣子,但顯然我們如今對它的未知已經遠遠超過了已知。我們不知道它的學習能力是否有上限,不知道它會不會產生意識,也不知道有朝一日它能否像人腦一樣思考。唯一知道的是,這場AI革命才剛剛開始。
Kindergarten Green希望抱以開放的心態持續關注及獨立思考。如果你有和AI有關的創業想法及認知分享,也歡迎添加我們的企業微信一起交流。期待在探索AI的路上與你同行。