阿邦 202509: 24年前的台積電規模是當今的1/24.....
台積電董事長以前就對此哈哈大笑:科技七雄,在AI戰場進入七國混戰時代。最後是誰勝出尚在未定之天,但軍火商的生意越做越大。
ChosunBiz:
『為了滿足日益增長的人工智慧 (AI) 需求,大型科技公司正在加速自主研發 AI 半導體的設計和量產,同時建造資料中心並投資 AI 基礎設施。此舉旨在減少對 NVIDIA 的依賴,後者佔據了 80-90% 的 AI 半導體市場。 Google、微軟 (MS)、亞馬遜等公司希望,使用自主設計的客製化 AI 晶片能夠降低 AI 基礎設施成本,並緩解 NVIDIA 圖形處理器 (GPU) 短缺帶來的供需不確定性。
訓練和運行像 GPT-5 這樣的尖端 AI 模型需要強大的運算能力。這需要大量的圖形處理單元 (GPU),但目前的 GPU 供應遠遠跟不上需求,包括 OpenAI 在內的 AI 公司一直在抱怨他們「需要更多 GPU」。 OpenAI 首席產品長 (CPO) Kevin Weill 最近在一次播客採訪中提到,公司正面臨 GPU 短缺的問題,他表示:「我們一拿到 GPU 就會立即使用。」OpenAI 執行長 Sam Altman 上個月也表示,由於 GPT-5 的需求增長,公司計劃「在未來五個月內將計算能力翻一番」,並「確保在超過一百萬個此前,當 GPT-4.5 發布被推遲時,Altman 就提到了「我們的 GPU 快用完了」。
據信,包括 OpenAI 在內的主要 AI 公司已著手開發專有晶片,以滿足快速增長的運算需求。英偉達的壟斷地位顯著影響 AI 晶片的價格和供應,因此有必要透過開發專有晶片來實現供應商多元化並降低成本。分析師預測,針對各公司 AI 模型和基礎設施進行最佳化的客製化 AI 晶片最終將提升 AI 系統的效能,這也支持了這項策略。
Facebook母公司Meta也致力於自主研發AI晶片,以逐步減少對NVIDIA的依賴。 Meta於今年上半年開始小規模測試自主研發的AI模型訓練晶片。如果結果良好,該公司計劃在明年之前逐步提高自主研發晶片的比例。根據路透社報道,光在2023年,Meta就已在NVIDIA GPU上花費了約100億美元(約合13.9兆韓元),並已開始自主研發AI晶片以降低這些成本。 Meta計劃今年在AI基礎建設上投資650億美元(約90.5兆韓元),其中很大一部分預計將用於購買NVIDIA GPU。
谷歌很早就開發了自己的人工智慧晶片——張量處理單元 (TPU),並將其用於其人工智慧模型 Gemini 的訓練和運行。 TPU 是 2016 年擊敗九段圍棋選手李世石的 AlphaGo 所使用的人工智慧晶片。它專注於人工智慧運算和深度學習模型訓練。據報道,Google最近已與營運基於英偉達晶片資料中心的中小型雲端服務供應商接洽,提議引入 TPU,以擴大 TPU 的外部供應。此舉被解讀為Google試圖擴大 TPU 生態系統,並打破英偉達的壟斷地位。
亞馬遜網路服務 (AWS) 也在擴大其專有 AI 晶片 Inferencia 和 Trainium 的使用。 AWS 強調,與使用 Nvidia GPU 相比,使用這些晶片可以降低約 40% 的成本。蘋果也在去年年底宣布將使用亞馬遜的 Inferencia 晶片。
最近,中國企業也加入了擺脫英偉達的潮流。 《華爾街日報》等外媒報道稱,阿里巴巴正在開發測試其自主研發的AI晶片,專門用於AI推理。華為也開發了自己的AI晶片“昇騰系列”,並計劃從今年開始在專用工廠生產,並計劃明年再運營兩家相關工廠。
業界看到AI半導體市場呈現多元化趨勢,從英偉達生產的通用GPU轉向各公司自主設計的客製化晶片。 IBM諮詢公司數據和AI部門副總裁Shobhit Varshini表示:“使用針對AI系統優化的定制晶片可以降低成本和延遲,提高計算吞吐量,並提升性能。”
然而,自主設計的專有AI晶片短期內不太可能取代NVIDIA的GPU。 GPU運行在NVIDIA的專有軟體平台CUDA上,隨著CUDA成為事實上的行業標準,許多公司和開發者都與NVIDIA生態系統緊密相連。尤其是CUDA,它仍然被認為是大規模語言模型(LLM)訓練中最強大的平台。韓國投資證券公司的研究員Chae Min-sook表示:“從AI晶片開發到商業化需要相當長的時間,因此短期內實現這一目標將十分困難。”
即使大型科技公司透過長期自主設計晶片來減少對英偉達的依賴,有些人預測,由於它們主要將半導體生產外包給台積電,對台積電的依賴可能會加劇。副總裁瓦希尼預測:“由於台積電在半導體代工領域競爭激烈,企業不可避免地將繼續嚴重依賴台積電。”』
wwwww
提議:請轉載這期天下半月刊關於廣達公司品質副總及相關廠商發展之最近 data centers 用的GPU等整架 之"品管"系統請轉學會盧先生或月刊主編或秘書長
簡單說明,
台灣為AI 硬體隻供應大國
data centers 用的GPU等整架 包括一疊電腦 每架上億台幣
即PCB或冷卻管稍微有缺陷,即須整架報廢?極高的失敗成本, 況且現在PCB極多層等,許多缺陷無法目視檢驗
現在他們結合台灣蔡司檢驗汽車之非破壞檢測法.....
這期天下半月刊的文筆等很清楚,我建議先要求轉載。 或可進而發展成一專輯.....
以上外行簡說/建議,給學會諸位專家參考
沒有留言:
張貼留言