深度強(qiáng)化學(xué)習(xí)驅(qū)動(dòng)的自動(dòng)駕駛運(yùn)動(dòng)規(guī)劃:建模方法與場(chǎng)景化應(yīng)用
本文深入探討了分層運(yùn)動(dòng)規(guī)劃問題,闡述了深度強(qiáng)化學(xué)習(xí)的基礎(chǔ)。
思科 2025 AI 安全報(bào)告:72% 企業(yè)存漏洞,提示注入與數(shù)據(jù)投毒成首要威脅
思科《2025 年 AI 安全現(xiàn)狀》報(bào)告揭示:72% 企業(yè)部署 AI 但僅 13% 具備安全防護(hù)能力,AI 基礎(chǔ)設(shè)施攻擊(如 NVIDIA 容器工具包漏洞)、供應(yīng)鏈投毒(Sleepy Pickle 技術(shù))、提示注入 / 越獄攻擊(DeepSeek R1 攻擊成功率 100%)成三大核心威脅。研究顯示
AI 反饋循環(huán)危機(jī):當(dāng)機(jī)器以錯(cuò)誤為食,如何避免商業(yè)決策陷入 “謊言螺旋”?
AI 反饋循環(huán):當(dāng)機(jī)器因輕信彼此的 “謊言” 而放大自身錯(cuò)誤隨著企業(yè)日益依賴人工智能(AI)改善運(yùn)營(yíng)和客戶體驗(yàn),一個(gè)日益凸顯的擔(dān)憂正在浮現(xiàn)。盡管 AI 已被證明
公共安全 "圍墻花園" 暴露美國(guó)數(shù)據(jù)隱私危機(jī):AI 工具壟斷下的誤判風(fēng)險(xiǎn)與聯(lián)邦立法缺失
人工智能的擴(kuò)張前沿與數(shù)據(jù)需求人工智能正迅速改變我們的生活、工作和治理方式。在公共衛(wèi)生和公共服務(wù)領(lǐng)域,AI 工具承諾提升效率并加速?zèng)Q策。但在這場(chǎng)變革的表象之下,正
AI安全危機(jī)爆發(fā)!Enkrypt AI報(bào)告實(shí)錘:Mistral多模態(tài)模型68%攻擊成功率,涉黃/化武生成觸目驚心(附防御方案)
.當(dāng)AI反噬:Enkrypt AI報(bào)告揭露多模態(tài)模型的危險(xiǎn)漏洞2025年5月,Enkrypt AI發(fā)布《多模態(tài)紅隊(duì)測(cè)試報(bào)告》,揭示了先進(jìn)AI系統(tǒng)如何被輕易操縱以
研究警示:大語(yǔ)言模型易成 “腳本攻擊幫兇”,漏洞利用生成能力逼近實(shí)用邊界
.研究表明大語(yǔ)言模型可能協(xié)助惡意 “氛圍編碼”過去幾年,大語(yǔ)言模型(LLMs)因可能被濫用于攻擊性網(wǎng)絡(luò)安全領(lǐng)域(尤其是生成軟件漏洞利用代碼)而備受審視。近期 “
【網(wǎng)絡(luò)安全警報(bào)】AI 幻覺催生 19.7% 虛假依賴項(xiàng):新型 “Slopsquatting” 攻擊如何利用代碼生成模型漏洞?
揭示 AI 時(shí)代新型軟件供應(yīng)鏈風(fēng)險(xiǎn)!研究發(fā)現(xiàn) 19.7% 的 LLM 生成代碼推薦包為虛構(gòu),攻擊者利用 “Slopsquatting(依賴項(xiàng)幻覺劫持)” 注冊(cè) AI 幻覺包名,植入惡意代碼。解析 CodeLlama(33% 幻覺率)與 GPT-4(3.59%)的表現(xiàn)差異,揭示開源模型更高的幻覺風(fēng)險(xiǎn)。
【安全技術(shù)】AI驅(qū)動(dòng)的無(wú)人駕駛車輛的安全設(shè)計(jì)
本文探討了汽車軟件和硬件所需的安全架構(gòu)和系統(tǒng)方法,包括汽車安全完整性等級(jí)(ASIL) D(最高安全完整性等級(jí))的故障軟處理、人工智能(AI)和機(jī)器學(xué)習(xí)(ML)在汽車安全架構(gòu)中的集成
-
共1頁(yè) 8條
