人工智能相關文章 vivo自研藍心大模型升級“自研AI多模態(tài)大模型” vivo 自研藍心大模型升級“自研 AI 多模態(tài)大模型” 發(fā)表于:5/14/2024 Anthropic宣布在歐洲推出Claude聊天機器人 Anthropic宣布在歐洲推出Claude聊天機器人,精通多種語言 發(fā)表于:5/14/2024 MIT研究團隊發(fā)現(xiàn)部分AI系統(tǒng)已學會說謊 研究發(fā)現(xiàn)部分 AI 系統(tǒng)已學會“說謊”,未來或演變成更高級欺騙形式 發(fā)表于:5/13/2024 安全公司Sysdig警告黑客正瞄準各大AI語言模型平臺用戶賬號 安全公司Sysdig警告黑客正瞄準各大AI語言模型平臺用戶賬號 發(fā)表于:5/13/2024 英國搶先發(fā)布AI模型安全檢測工具 英國搶先發(fā)布AI模型安全檢測工具 以識別和評估相關風險 發(fā)表于:5/13/2024 AI大模型加速上車 萬億市場將爆發(fā) AI大模型加速“上車”,萬億市場將爆發(fā),但實際應用仍有待觀察 發(fā)表于:5/13/2024 何為需求規(guī)劃的關鍵所在 面對眾多分散的銷售渠道、繁雜的產品線以及更加難以預測的客戶需求,包括消費品公司在內的各類企業(yè)面對著同一個棘手的問題——為何供應鏈總是無法跟上市場營銷前端的速度?盡管許多企業(yè)已經采用了需求規(guī)劃和預測系統(tǒng),希望可以通過系統(tǒng)升級提高洞察力,以調整庫存規(guī)模并保證每次都能按時足量交貨。有些企業(yè)甚至與客戶協(xié)作,將雙方的訂貨和庫存管理系統(tǒng)進行連接,以便根據當前庫存水平協(xié)調采購請求,并更好地管理生產需求。盡管如此,這仍然未能幫助企業(yè)達成預期目標。 發(fā)表于:5/11/2024 英偉達下一代人工智能GPU架構Rubin曝光 性能跨時代飛躍!英偉達下一代架構“Rubin”曝光:臺積電3nm、HBM4內存 發(fā)表于:5/11/2024 日本聯(lián)合研究團隊發(fā)布Fugaku-LLM大模型 5 月 11 日消息,由多方企業(yè)和機構組成的日本聯(lián)合研究團隊昨日發(fā)布了 Fugaku-LLM大模型。該模型的最大特色就是其是在 Arm 架構超算“富岳”上訓練的。 Fugaku-LLM 模型的開發(fā)于 2023 年 5 月啟動,初期參與方包括富岳超算所有者富士通、東京工業(yè)大學、日本東北大學和日本理化學研究所(理研)。 而在 2023 年 8 月,另外三家合作方 —— 名古屋大學、CyberAgent(也是游戲企業(yè) Cygames 的母公司)和 HPC-AI 領域創(chuàng)企 Kotoba Technologies 也加入了該模型研發(fā)計劃。 發(fā)表于:5/11/2024 美國會新法案將管制AI大模型出口 開源的也不讓用 美國會新法案將管制AI大模型出口 開源的也不讓用 發(fā)表于:5/10/2024 技術行業(yè)調研揭示: 企業(yè)推動人工智能和可持續(xù)發(fā)展的期望與合理規(guī)劃之間存在脫節(jié) 瑞士沙夫豪森 – 2024年4月30日– 全球技術行業(yè)的企業(yè)高管與工程師對人工智能 (以下簡稱“AI”) 和廣義的可持續(xù)發(fā)展持樂觀態(tài)度;但他們仍不確定所在企業(yè)推進AI和可持續(xù)發(fā)展的最佳路徑。 發(fā)表于:5/9/2024 Optiver使用AMD企業(yè)級產品組合賦能數據中心現(xiàn)代化 AMD憑借強大、創(chuàng)新且成熟的解決方案組合助力企業(yè)級客戶應對當今的種種挑戰(zhàn)。Optiver展現(xiàn)了AMD計算產品組合的領導力,其中由多個獨立設備協(xié)作所組成的智能解決方案還能優(yōu)于其各部分之和,為公司和客戶帶來無與倫比的價值。 發(fā)表于:5/9/2024 FPGA是實現(xiàn)敏捷、安全的工業(yè)4.0發(fā)展的關鍵 到2028年,全球工業(yè)4.0市場規(guī)模預計將超過2790億美元,復合年增長率為16.3%。雖然開發(fā)商和制造商對這種高速增長已經習以為常,但其影響才剛剛開始顯現(xiàn)。通過結合云計算、物聯(lián)網(IoT)和人工智能(AI)的能力,工業(yè)4.0將在未來幾年繼續(xù)提升制造業(yè)的數字化、自動化和互連計算水平,推動更多企業(yè)擁抱第四次工業(yè)革命。 發(fā)表于:5/9/2024 美光率先出貨用于 AI 數據中心的關鍵內存產品 美光再創(chuàng)行業(yè)里程碑,率先驗證并出貨 128GB DDR5 32Gb 服務器 DRAM,滿足內存密集型生成式 AI 應用對速率和容量的嚴苛要求 發(fā)表于:5/9/2024 阿里云通義千問2.5大模型發(fā)布 5 月 9 日消息,在今日上午的阿里云 AI 智領者峰會-北京站活動中,通義千問 2.5 大模型發(fā)布,號稱多項能力趕超 GPT-4。 據阿里云官方介紹,通義大模型通過阿里云服務企業(yè)超 9 萬,通義開源模型累計下載量突破 700 萬。通義落地應用進程加速,現(xiàn)已進入 PC、手機、汽車等領域。 在活動現(xiàn)場,阿里云正式發(fā)布通義千問 2.5,號稱“能力升級,全面趕超 GPT-4”,在中文語境下,文本理解、文本生成、知識問答 & 生活建議、閑聊 & 對話和安全風險等多項能力上趕超 GPT-4。 此外,通義千問 2.5 相比通義千問 2.1 有多項能力提升,理解能力提升 9%,邏輯推理提升 16%,指令遵循提升 19%,代碼能力提升 10%。 發(fā)表于:5/9/2024 ?…919293949596979899100…?