人工智能正以遠超規則制定的速度涌入半導體產業鏈,從EDA工具中的基礎模型到影響設計、驗證和物理實現的智能體系統,AI正在重塑芯片的制造方式,也在制造新的風險敞口。然而,當下的AI治理工作支離破碎、解讀不一,更多停留在"意圖"層面而非可量化的結果。以目前的創新速度,傳統監管方式注定難以追趕。
新思科技安全IP解決方案產品管理高級總監Dana Neustadter將AI治理與汽車安全做了類比:AI需要政策框架來指導負責任的開發、部署和使用,以建立信任、倫理、問責和透明度。但要真正識別和緩解風險,AI系統還需關注數據安全、模型完整性、訪問控制和身份驗證——這與汽車領域的功能安全和網絡安全邏輯相通。
![]()
安全關鍵行業或許會成為AI問責制首個可落地、可執行模式的試驗場,其演進路徑與汽車、工業控制、航空航天、軍工領域安全標準的發展歷程類似。Synaptics物聯網與邊緣AI處理器業務副總裁John Weil指出,半導體行業的首席設計師及軟硬件生態伙伴歷經數十年協作,從90年代的軍工/航天安全標準,到汽車電子和工廠自動化設備激增后涌現的大量ISO標準,已形成可靠系統設計的成熟指引。但AI領域至今缺乏同等框架——"如果有人想做帶AI的工業自動化安全產品,這兩件事很難放在同一句話里。"
Secure-IC聯合創始人兼首席技術官Sylvain Guilley認為,AI在半導體領域存在兩個截然不同的應用場景:一是數據管理,二是代碼與硬件的生成和驗證。這兩個方向的風險特征和治理需求截然不同,卻共享同一個"缺乏護欄"的底層現實。
IP泄露與安全漏洞的威脅已非假設。當AI嵌入EDA工作流、當智能體開始自主影響物理設計結果,芯片企業的核心知識產權正暴露于前所未有的攻擊面之下。更棘手的是,碎片化的標準、 unevenly interpreted 的合規要求,讓"負責任地開發AI"淪為一句口號。
汽車行業的歷史或許預示了半導體AI治理的終局:不是等待完美規則,而是在安全關鍵場景中倒逼出可執行的標準。但在此之前,行業必須回答一個更緊迫的問題——在規則到位之前,誰來為已經發生的損失負責?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.