人工智能相關(guān)文章 B站開源輕量級 Index-1.9B 系列模型 B站開源輕量級 Index-1.9B 系列模型:2.8T 訓(xùn)練數(shù)據(jù),支持角色扮演 發(fā)表于:2024/6/20 阿里通義Qwen2成斯坦福大模型榜單最強(qiáng)開源模型 阿里通義Qwen2成斯坦福大模型榜單最強(qiáng)開源大模型 發(fā)表于:2024/6/20 中國氣象局發(fā)布三個AI氣象大模型系統(tǒng) 中國氣象局發(fā)布三個AI氣象大模型系統(tǒng):命名風(fēng)清、風(fēng)雷、風(fēng)順 發(fā)表于:2024/6/19 中國科大人形機(jī)器人研究院揭牌 中科大人形機(jī)器人研究院揭牌 發(fā)表于:2024/6/19 華為高管罕見公布昇騰AI算力性能近況 華為高管:昇騰AI算力性能已超過英偉達(dá)A100 發(fā)表于:2024/6/19 研究稱GPT-4通過了圖靈測試 6 月 17 日消息,最新研究稱,越來越多的人難以在圖靈測試中區(qū)分 GPT-4 和人類。 發(fā)表于:2024/6/18 智源人工智能研究院推出大模型全家桶 智源人工智能研究院推出大模型全家桶 智源研究院此次推出的大模型“全家桶”,包括智源多模態(tài)大模型、具身智能大模型、生物計算大模型等。 發(fā)表于:2024/6/18 AI賦能宜人智科降本增效,“蜂巢”智能語音交互機(jī)器人助力實現(xiàn)高質(zhì)量增長 隨著人工智能技術(shù)的飛速發(fā)展,企業(yè)與客戶之間的溝通方式正在經(jīng)歷一場革命性的變化。為進(jìn)一步解決人工語音交互任務(wù)頻繁,業(yè)務(wù)重疊性強(qiáng),標(biāo)準(zhǔn)不一導(dǎo)致的效率低下等問題,宜人智科自建底層語音交互平臺并結(jié)合自身AI大模型底座推出了“蜂巢智能語音交互機(jī)器人”(以下簡稱“蜂巢”),這一創(chuàng)新產(chǎn)品不僅在業(yè)務(wù)側(cè)有效提升了語音交互的效率和準(zhǔn)確性,還降低了獲客成本,有效提升成交轉(zhuǎn)化。 發(fā)表于:2024/6/18 機(jī)器人新紀(jì)元:邊緣處理、電源、傳感器與通信突破 隨著傳感器和電子器件技術(shù)的突飛猛進(jìn),移動機(jī)器人領(lǐng)域正在快速發(fā)展。工程師們通過融合新技術(shù),推動了移動機(jī)器人生態(tài)系統(tǒng)在多個層面的持續(xù)演進(jìn)。以下重要發(fā)展趨勢驅(qū)動著處理、電源、傳感器以及通信領(lǐng)域的革新。 發(fā)表于:2024/6/17 采用創(chuàng)新的FPGA 器件來實現(xiàn)更經(jīng)濟(jì)且更高能效的大模型推理解決方案 摘要:本文根據(jù)完整的基準(zhǔn)測試,將Achronix Semiconductor公司推出的Speedster7t FPGA與GPU解決方案進(jìn)行比較,在運行同一個Llama2 70B參數(shù)模型時,該項基于FPGA的解決方案實現(xiàn)了超越性的LLM推理處理。 發(fā)表于:2024/6/17 摩爾線程GPU AI訓(xùn)推達(dá)到國際水準(zhǔn) 國產(chǎn)GPU AI訓(xùn)推達(dá)到國際水準(zhǔn)!摩爾線程已媲美RTX 4090、A100 發(fā)表于:2024/6/17 英偉達(dá)開源3400億巨獸Nemotron-4 340B 剛剛,英偉達(dá)全新發(fā)布的開源模型 Nemotron-4 340B,有可能徹底改變訓(xùn)練 LLM 的方式!從此,或許各行各業(yè)都不再需要昂貴的真實世界數(shù)據(jù)集了。而且,Nemotron-4 340B 直接超越了 Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和 GPT-4 掰手腕! 發(fā)表于:2024/6/17 阿里蔡崇信:微軟與OpenAI的未來可能分道揚鑣 阿里蔡崇信:微軟與OpenAI的未來可能分道揚鑣 發(fā)表于:2024/6/17 大模型價格戰(zhàn)開打 多芯混合能否成破局之策 大模型價格戰(zhàn)開打 多芯混合能否成破局之策 發(fā)表于:2024/6/14 Gartner首席執(zhí)行官調(diào)查:AI是繼下一輪業(yè)務(wù)轉(zhuǎn)型的首要任務(wù) Gartner首席執(zhí)行官調(diào)查:AI是繼下一輪業(yè)務(wù)轉(zhuǎn)型的首要任務(wù) 發(fā)表于:2024/6/14 ?…96979899100101102103104105…?