国产精偷伦视频在线观看_久久婷婷欧美激情综合_午夜精品国产自在_在线视频中文字幕无码专区

主頁 > 企業(yè)博客 > 職教新聞 > 云南大學(xué)軟件學(xué)院研究成果獲國際人工智能期刊錄用

云南大學(xué)軟件學(xué)院研究成果獲國際人工智能期刊錄用

2025-05-18 08:28

  近日,以云南大學(xué)軟件學(xué)院為第一完成單位的5項研究成果獲人工智能領(lǐng)域國際高水平會議/期刊錄用。其中,2項圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域研究成果被A類國際學(xué)術(shù)會議AAAI’2025和IJCAI’2025錄用,3項圖像處理領(lǐng)域研究成果被中科院1區(qū)TOP國際期刊Information Fusion、Expert Systems With Applications以及Engineering Applications of Artificial Intelligence錄用,體現(xiàn)了學(xué)院在圖神經(jīng)網(wǎng)絡(luò)、圖像處理前沿領(lǐng)域的科研實力和應(yīng)用潛力。成果簡要情況如下。

中科院1區(qū)TOP國際期刊

中科院1區(qū)TOP國際期刊

一、圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域成果

與卷積神經(jīng)網(wǎng)絡(luò)(CNN)和自注意力網(wǎng)絡(luò)的基礎(chǔ)地位(TRANSFORMER)相似,圖神經(jīng)網(wǎng)絡(luò)(GNN)是當(dāng)前人工智能領(lǐng)域最重要的基礎(chǔ)網(wǎng)絡(luò)之一,針對處理網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)據(jù),廣泛應(yīng)用在知識圖譜、大數(shù)據(jù)分析、社交推薦、藥物預(yù)測、蛋白質(zhì)分析、大語言模型等重要下游應(yīng)用領(lǐng)域中,并取得了諸多里程碑式成果。此次兩項成果NoiseHGNN和GCTAM,針對實現(xiàn)世界圖數(shù)據(jù)中可能存在的噪聲和異常進(jìn)行了建模研究,提出了新穎的處理識別方法,能夠有效排除圖數(shù)據(jù)中的噪聲和發(fā)現(xiàn)圖節(jié)點(diǎn)的異常,為知識圖譜構(gòu)建、社交推薦、大數(shù)據(jù)分析等下游任務(wù),提供了很好的基礎(chǔ)模型支持。

基礎(chǔ)模型

NoiseHGNN: Synthesized Similarity Graph-Based Neural Network For Noised Heterogeneous Graph Representation Learning

現(xiàn)實的圖(Graph)網(wǎng)絡(luò)數(shù)據(jù)環(huán)境本質(zhì)上存在噪聲(例如鏈接和結(jié)構(gòu)錯誤),這不可避免地會影響圖表示和下游學(xué)習(xí)任務(wù)的效果。現(xiàn)有的噪聲圖神經(jīng)網(wǎng)絡(luò)僅適用于同構(gòu)圖,難以擴(kuò)展至更為復(fù)雜和常見的異構(gòu)圖場景中。為此,本項研究提出了一種新穎的基于相似度合成的圖神經(jīng)網(wǎng)絡(luò)方法,能夠適應(yīng)含噪的異構(gòu)圖學(xué)習(xí)任務(wù)。具體而言,利用節(jié)點(diǎn)的原始特征,構(gòu)建了一個基于相似度的高階圖;引入一個相似度感知編碼器進(jìn)行圖表征;采用同步監(jiān)督學(xué)習(xí)和結(jié)構(gòu)對比學(xué)習(xí)來優(yōu)化模型。在多個真實世界數(shù)據(jù)集上的廣泛實驗表明,該方法在含噪異構(gòu)圖學(xué)習(xí)任務(wù)中達(dá)到了最新的先進(jìn)水平。在多個圖噪聲數(shù)據(jù)集上,相比此前的SOTA方法,本方法提升了5%到6%的準(zhǔn)確率。

網(wǎng)絡(luò)數(shù)據(jù)環(huán)境

GCTAM: Global and Contextual Combined Truncated Affinity Maximization Model For Unsupervised Graph Anomaly Detection

現(xiàn)有基于局部親和力的圖異常檢測方法,通過使用固定閾值來截斷可疑節(jié)點(diǎn),這種方法不可避免地導(dǎo)致正常和異常節(jié)點(diǎn)之間的無效截斷,限制了異常檢測的有效性。針對這一問題,本研究提出了一種結(jié)合上下文親和度與全局親和度的新型截斷模型,用于更精準(zhǔn)地識別異常節(jié)點(diǎn)。其核心思想是利用上下文截斷來降低異常節(jié)點(diǎn)的親和力,而全局截斷則增加正常節(jié)點(diǎn)的親和力。在真實數(shù)據(jù)集上的大量實驗表明,該方法在大多數(shù)圖異常檢測任務(wù)中優(yōu)于同類方法。尤其是在兩個著名的真實數(shù)據(jù)集(Amazon 和 YelpChi)中,相比之前最先進(jìn)的方法,本方法在AUROC上提高了15%到20%。

二、圖像處理領(lǐng)域成果

計算機(jī)視覺作為人工智能的重要分支,在安防監(jiān)控、自動駕駛、醫(yī)療影像分析、工業(yè)檢測、遙感測繪等眾多下游應(yīng)用領(lǐng)域發(fā)揮著關(guān)鍵作用,并取得了令人矚目的成績。云南大學(xué)軟件學(xué)院的3項圖像處理研究成果,分別針對遙感圖像的融合、超分及彩色化任務(wù),以及全切片病理圖像分類任務(wù)中的關(guān)鍵問題提出了創(chuàng)新方法,為相關(guān)應(yīng)用的發(fā)展提供了有力支持。

圖像處理領(lǐng)域成果

A pan-sharpening model using dual-branch attention-guided diffusion networks

盡管大多數(shù)當(dāng)前的全色銳化方法在提取單一模態(tài)圖像特征方面表現(xiàn)出色,但在捕捉跨模態(tài)圖像的全局聯(lián)合分布方面存在局限性。為了解決這一問題,本研究提出了一種新穎的全色銳化模型——雙分支注意力引導(dǎo)擴(kuò)散網(wǎng)絡(luò)。該模型引入了擴(kuò)散模型,能夠有效地重建圖像的潛在分布。擴(kuò)散分支在去噪過程中捕捉全色(PAN)和多光譜(MS)圖像的全局聯(lián)合特征,構(gòu)建高分辨率多光譜(HRMS)圖像的跨模態(tài)分布。同時,注意力引導(dǎo)分支通過多尺度卷積密集連接模塊和改進(jìn)的注意力機(jī)制,增強(qiáng)PAN和MS圖像的高頻細(xì)節(jié)和局部特征。在WorldViewII、QuickBird和Maryland數(shù)據(jù)集上的實驗結(jié)果證實了該研究在性能上優(yōu)于現(xiàn)有的先進(jìn)方法。

圖像處理領(lǐng)域成果

SR_ColorNet: Multi-path attention aggregated and mask enhanced network for the super resolution and colorization of panchromatic image

現(xiàn)有研究中,當(dāng)僅輸入全色圖像時,獲取高空間分辨率彩色圖像面臨嚴(yán)峻挑戰(zhàn):圖像超分辨率(SR)模型可提升空間分辨率但無法改善光譜分辨率,圖像著色模型可增強(qiáng)光譜分辨率卻無法提升空間分辨率。本研究創(chuàng)新性地將全色圖像的空間分辨率恢復(fù)和光譜恢復(fù)集成于同一模型中同步完成,提出一種基于Transformer與卷積神經(jīng)網(wǎng)絡(luò)協(xié)同架構(gòu)的多路徑網(wǎng)絡(luò)(SR_ColorNet),用于全色圖像分辨率恢復(fù)。采用多路徑特征提取,并設(shè)計超分辨率Transformer模塊專注于空間信息恢復(fù);ECA通道混合模塊(ECMB)實現(xiàn)重要特征信息的保留與傳遞;并在最后的特征重建階段設(shè)計了掩碼特征增強(qiáng)模塊(MFE)強(qiáng)化特征表達(dá)能力。實驗表明,SR_ColorNet在遙感圖像的分辨率恢復(fù)任務(wù)中均展現(xiàn)出優(yōu)越性能,其客觀指標(biāo)與視覺質(zhì)量顯著優(yōu)于SOTA方法。

圖像處理領(lǐng)域成果

Pseudo-label attention-based multiple instance learning for whole slide image classification

全切片病理圖像(WSI)因其在病理診斷中的重要作用而備受關(guān)注。然而,WSI的超高分辨率和弱監(jiān)督標(biāo)簽形式讓深度學(xué)習(xí)模型在處理時面臨諸多難題,包括關(guān)鍵病灶區(qū)域難以聚焦、背景噪聲干擾嚴(yán)重以及正負(fù)樣本數(shù)量不均衡等問題。盡管多實例學(xué)習(xí)(MIL)方法已被廣泛應(yīng)用于這一領(lǐng)域,但現(xiàn)有方法在面對復(fù)雜病理圖像時仍存在顯著局限。為了解決這些挑戰(zhàn),研究團(tuán)隊提出了一種全新的偽標(biāo)簽注意力多實例學(xué)習(xí)方法(Pseudo-label Attention-based Multiple Instance Learning, PAMIL)。PAMIL 通過整合偽標(biāo)簽生成機(jī)制和實例注意力策略,以動態(tài)加權(quán)的方式增強(qiáng)模型對關(guān)鍵病灶區(qū)域的聚焦能力,從而顯著提升圖像分類的整體性能。具體來說,該方法以全視野圖像為輸入,將其切片成多個圖像塊,通過自監(jiān)督預(yù)訓(xùn)練的特征提取模塊生成初始特征,并利用偽標(biāo)簽生成模塊篩選出具有代表性的正負(fù)樣本實例。隨后,實例注意力機(jī)制通過構(gòu)建注意力矩陣對樣本進(jìn)行加權(quán),突出高權(quán)重區(qū)域并抑制背景噪聲,最終通過微調(diào)策略進(jìn)一步增強(qiáng)模型的泛化能力。

AAAI和IJCAI是人工智能領(lǐng)域歷史最悠久、內(nèi)容覆蓋最廣、學(xué)術(shù)認(rèn)可度最高的國際頂級會議之一,是中國計算機(jī)學(xué)會(CCF)推薦的A類國際學(xué)術(shù)會議。Information Fusion Expert Systems With Applications以及Engineering Applications of Artificial Intelligence均為中科院1區(qū)TOP期刊。

軟件學(xué)院將繼續(xù)深化圖智能技術(shù)和神經(jīng)網(wǎng)絡(luò)架構(gòu)與地方經(jīng)濟(jì)社會發(fā)展之間的融合應(yīng)用,通過加強(qiáng)與科研院所、產(chǎn)業(yè)機(jī)構(gòu)的協(xié)同創(chuàng)新機(jī)制,努力將圖神經(jīng)網(wǎng)絡(luò)、圖異常檢測、圖像處理等領(lǐng)域關(guān)鍵技術(shù)應(yīng)用于數(shù)字邊疆治理、綠色能源管理、智慧農(nóng)業(yè)與公共安全等重點(diǎn)場景,助力打造面向東南亞輻射中心的智能計算科研高地,為云南和區(qū)域科技發(fā)展注入持續(xù)動能。

來源:云南大學(xué)軟件學(xué)院

上一篇:河北師范大學(xué)召開校級重點(diǎn)學(xué)科建設(shè)專題座談會 下一篇:開源人形機(jī)器人,開啟具身智能實踐教學(xué)新范式

相關(guān)產(chǎn)品

你可能也喜歡