北京時(shí)間4月30日下午消息,索尼今天發(fā)布公告稱,由于成像傳感器業(yè)績(jī)強(qiáng)勁,加之為復(fù)興虧損的手機(jī)業(yè)務(wù)展開的成本壓縮計(jì)劃,該公司本財(cái)年的營業(yè)利潤(rùn)將會(huì)大幅增長(zhǎng)。
索尼預(yù)計(jì),在該公司本財(cái)年的營業(yè)利潤(rùn)將達(dá)到3200億日元(約合27億美元),凈利潤(rùn)為1400億日元,營收則會(huì)從上財(cái)年的8.2萬億日元萎縮至7.9萬億日元。
分析師預(yù)計(jì),索尼本財(cái)年的預(yù)期可能比較保守,市場(chǎng)平均預(yù)計(jì)該公司本財(cái)年?duì)I業(yè)利潤(rùn)為3980億日元,凈利潤(rùn)為1770億日元。
索尼在截至今年3月31日的財(cái)年內(nèi)凈虧損1260億日元(約合10.6億美元),這也是該公司在過去7年內(nèi)第6次出現(xiàn)年度虧損。但當(dāng)年實(shí)現(xiàn)營業(yè)利潤(rùn)690億日元,遠(yuǎn)超初步預(yù)期。此次凈虧損主要源自智能手機(jī)業(yè)務(wù)產(chǎn)生的一次性成本。
好文章,需要你的鼓勵(lì)
這項(xiàng)研究提出了"高效探測(cè)"方法,解決了掩碼圖像建模AI難以有效評(píng)估的問題。通過創(chuàng)新的多查詢交叉注意力機(jī)制,該方法在減少90%參數(shù)的同時(shí)實(shí)現(xiàn)10倍速度提升,在七個(gè)基準(zhǔn)測(cè)試中均超越傳統(tǒng)方法。研究還發(fā)現(xiàn)注意力質(zhì)量與分類性能的強(qiáng)相關(guān)性,生成可解釋的注意力圖譜,展現(xiàn)出優(yōu)異的跨域適應(yīng)性。團(tuán)隊(duì)承諾開源全部代碼,推動(dòng)技術(shù)普及應(yīng)用。
伊利諾伊大學(xué)研究團(tuán)隊(duì)開發(fā)了CLAIMSPECT系統(tǒng),通過層次化分解復(fù)雜爭(zhēng)議、智能檢索相關(guān)文獻(xiàn)、多角度收集觀點(diǎn)的方法,將傳統(tǒng)的"真假"判斷轉(zhuǎn)變?yōu)槎嗑S度分析。該系統(tǒng)能夠自動(dòng)構(gòu)建爭(zhēng)議話題的分析框架,識(shí)別不同觀點(diǎn)及其支撐證據(jù),為科學(xué)和政治爭(zhēng)議提供更全面客觀的分析,已在生物醫(yī)學(xué)和國際關(guān)系領(lǐng)域驗(yàn)證有效性。
清華大學(xué)研究團(tuán)隊(duì)首次提出情感認(rèn)知融合網(wǎng)絡(luò)(ECFN),讓AI能像人類一樣理解和表達(dá)情感。該系統(tǒng)通過多層次情感處理架構(gòu),在情感識(shí)別準(zhǔn)確率上比現(xiàn)有最佳系統(tǒng)提升32%,情感表達(dá)自然度提升45%。研究突破了傳統(tǒng)AI情感理解的局限,實(shí)現(xiàn)了跨模態(tài)情感融合、動(dòng)態(tài)情感追蹤和個(gè)性化情感建模,為醫(yī)療、教育、客服等領(lǐng)域帶來革命性應(yīng)用前景。
哈佛大學(xué)研究團(tuán)隊(duì)通過創(chuàng)新的多智能體強(qiáng)化學(xué)習(xí)方法,讓AI在戰(zhàn)略游戲中學(xué)會(huì)復(fù)雜推理。研究發(fā)現(xiàn)AI通過游戲競(jìng)爭(zhēng)能發(fā)展出類人思維能力,在邏輯推理、創(chuàng)造性解決問題等方面表現(xiàn)顯著提升。這項(xiàng)突破性成果為未來AI在醫(yī)療、教育、城市管理等領(lǐng)域的應(yīng)用奠定基礎(chǔ),展現(xiàn)了通過模擬人類學(xué)習(xí)過程培養(yǎng)真正智能AI的新路徑。