耐能發表全球首款運行神經網路邊緣AI晶片 將進化為AI基礎建設公司
【記者蕭文康/台北報導】AI科技企業 Kneron耐能今正式發表新一代 AI系列晶片,並由全新旗艦產品 KL1140 打頭陣,全面構建從終端到雲端的完整 AI基礎設施版圖。此次發表會中,耐能創辦人暨執行長 劉峻誠同步揭示未來3年的高中低階多款新晶片規劃,強調耐能正式完成全算力佈局,從 AI晶片供應商進化為 AI基礎建設公司的關鍵里程碑。
KL1140:全球首款能在終端完整執行 Mamba的 NPU
劉峻誠表示,KL1140是全球第一顆可於終端設備完整運行 Mamba神經網路 的邊緣 AI晶片。在能效上達到現有雲端方案 3 倍效能、成本下降 10倍,使大型語言模型(LLM)真正走入智慧設備,突破必須倚賴雲端 GPU 的限制。
透過4顆 KL1140並聯,可支援運行高達 1200億參數的模型,功耗僅為傳統 GPU的1/3。根據美國加州大學柏克萊分校測試結果,KL1140能效大幅領先現有邊緣處理器,是目前效能突破性的 NPU 解決方案。
完整高中低階晶片佈局:耐能全系列新品首度曝光
劉峻誠在會中也首次完整介紹耐能未來3年的晶片產品藍圖,包括KL640、KL650主打 Always-on 能力,滿足影像安防與低耗能場景。KL540、KL515用於 IPCam、視覺運算、機器視覺等大眾化終端設備。KL840、KL1150面向高階智慧設備、車載、企業邊緣伺服器,具備更高 TOPS 與串接能力。
這些產品共同構成從低、中到高的完整算力梯度,搭配 KL1140的問世,耐能已正式完成全階端側 AI 產品線量產佈局,並進一步提升相較傳統 GPU 的能效與可規模化能力。
突破現況:AI 運算模式正面臨不可持續的全球挑戰
隨著企業加速導入 AI,全球資料中心投資規模已達數兆美元,能源需求同步飆升。預估至 2035 年,全球資料中心耗能將突破 175GW,雲端運算成本高、延遲大、耗能重且存在資料外洩風險的問題日益浮現。
他認為,「高成本與高能耗表明現行 AI,運算模式難以長期維持」,KL1140以及耐能的新一代系列晶片,就是對此提出的解方。透過在邊緣直接運行大型模型,讓 LLM的強大能力真正走入終端,落實 The Future Lives at the Edge。
KL1140 專為 語音理解、自然語言處理、智慧視覺、邊緣決策、機器人等應用而設計,可完全不依賴雲端連線即時運作。典型應用包含:智慧安防機器人:無 Wi-Fi亦能即時理解語音、辨識場景並回應;車載系統:本地語音與決策 AI,無雲端延遲;企業私有 AI助理:敏感資料皆留在辦公室無須上雲;智慧製造設備:即時影像解析、語音命令與自主決策。
KL1140的推出象徵邊緣 AI進入真正可用、可商用、可規模化的新階段。
展區完整呈現耐能全端AI生態系
本次發布會現場亦設置多個展示區,包括:KNEO350新一代邊緣 AI 伺服器、KNEO Pi開發者平台與開發板(全球已累積 28,000名開發者)、AI機器人應用、智慧會議助理與語音應用、機器視覺與安防電子方案。
耐能已從邊緣晶片公司快速成長為 全棧式 AI基礎建設企業,自研方案已成功部署於醫療、教育、政府單位等主權 AI專案,展現本地化、高安全的 AI 能力。同時,耐能與義大利 Spark合作打造基於耐能晶片的 LLM伺服器,構建從晶片、工具鏈、系統到開發者社群的完整 AI生態。
耐能自 2015年成立以來,其可重構 NPU架構屢獲國際肯定,包括 IEEE CAS Darlington Award 等多項獎項。合作客戶涵蓋高通、韓華、豐田、廣達、德施曼等國際企業,應用場域遍及 AIoT、智慧安防、智慧車載與邊緣伺服器。
在 AI 基礎建設邁向下一個十年之際,耐能將持續推動 AI 普惠化,協助全球企業在雲端之外找回更可負擔、更高效、更安全的運算模式。
耐能期待與更多產業夥伴共同引領「邊緣即未來(The Future Lives at the Edge)」的全新 AI 時代,讓 AI 的能力真正走入每一台終端裝置、每一個產業與每一位使用者。
