教师主页移动版

主页 > 广东省 > 华南理工大学

丁长兴

姓名 丁长兴
性别
学校 华南理工大学
部门 电子与信息学院
学位 研究员
学历 研究员
职称 研究员
联系方式 30号楼601室
邮箱 chxding@scut.edu.cn
   
集群智慧云企服 / 知识产权申请大平台
微信客服在线:543646
急速申请 包写包过 办事快、准、稳
软件产品登记测试
软件著作权666元代写全部资料
实用新型专利1875代写全部资料

更新日期:2024年3月28日 姓 名 丁长兴 性 别 男 出生年月 1987年5月 籍贯 民 族 汉族 政治面貌 中国共产党党员 最后学历 博士研究生 最后学位 工学博士 技术职称 研究员 导师类别 博、硕导 行政职务 Email chxding@scut.edu.cn 工作单位 电子与信息学院 邮政编码 通讯地址 30号楼601室 单位电话 个人简介 2016年博士毕业于悉尼科技大学(University of Technology Sydney),同年加入华南理工大学,任副研究员;2021年9月破格晋升为研究员/教授。在顶级期刊和权威会议上发表论文60余篇,包括第一作者ESI高被引论文5篇;在计算机视觉领域最权威期刊IEEE Transactions on Pattern Analysis and Machine Intelligence (IEEE T-PAMI)上发表第一作者论文3篇,影响因子24.3。指导本课题组研究生以第一作者身份在顶级期刊IEEE T-PAMI、T-IP、IJCV和顶级会议CVPR、ICCV、ECCV、ACM MM上发表论文近30篇。入选广东省杰青、广东省青年拔尖人才、广东省“珠江人才团队”、华南理工大学杰青、以及斯坦福大学发布的全球前2%顶尖科学家。以唯一通讯作者身份荣获2023年度IEEE信号处理学会(SPS)青年学者最佳论文奖(该年度从TIP/TSP/TIFS/TASLP等顶刊的几千篇论文中仅遴选出3篇)、2021年度ACM中国新星奖(Guangzhou Chapter)。获得由美国National Institute of Standards and Technology和University of Notre Dame联合举办的2016年基于视频的人脸识别挑战赛冠军,并指导本课题组研究生获得顶级会议MICCAI 2019举办的脑肿瘤分割比赛冠军、顶级会议CVPR 2021举办的动作识别挑战赛冠军、CVPR 2022举办的动作预期挑战赛冠军。 工作经历 2016.11-2021.08   华南理工大学,副研究员2021.09-至今         华南理工大学,研究员(破格) 获奖、荣誉称号 [8] TCL青年学者, 2024[7] IEEE信号处理学会(SPS)青年学者最佳论文奖(唯一通讯作者), 2023[6] 斯坦福大学发布的全球前2%顶尖科学家, 2022-至今[5] CVPR EPIC-Kitchens动作预期挑战赛冠军, 2022[4] ACM中国新星奖(Guangzhou Chapter), 2021[3] CVPR EPIC-Kitchens动作识别挑战赛冠军, 2021[2] MICCAI BraTS脑肿瘤分割比赛冠军, 2019[1] NIST PaSC基于视频的人脸识别挑战赛冠军,2016 社会、学会及学术兼职 IEEE Senior Member、CAAI/CCF/CSIG/CAA Member;在IEEE TPAMI、IJCV、TIP、TNNLS、TCyber、TIFS、TMM、TCSVT、TBD、TII以及CVPR、ICCV、ECCV、AAAI等20个国际权威期刊和会议上担任审稿人;IET Computer Vision编委、Pattern Recognition Letters客座编委。 研究领域 计算机视觉、深度学习、多模态学习、具身智能 科研项目 [1] 国家自然科学基金面上项目,59万,2021-2024,主持;[2] 国家自然科学基金青年项目,24万,2018-2020,主持;[3] 广东省“珠江人才团队”,2000万,2018-2023,第二核心成员、课题负责人;[4] 广东省“杰出青年基金”,100万,2024-2027,主持;[5] 广东省“青年拔尖人才”,150万,2018-2023,主持;[6] 广州市科技计划项目,20万,2018-2021,主持;[7] 华南理工大学“杰出青年基金”,50万,2019-2021,主持(该年度人工智能领域仅一项);[8] 琶洲实验室青年学者项目,80万,2021-2022,主持;[9] CCF-百度“松果基金”,2021-2022,主持;[10] CAAI-华为Mindspore学术奖励基金,2022-2023,主持。 发表论文 本人一作或指导本科课题组学生发表一作代表性论文,*表示通讯作者。CCF A类指的是计算机领域公认最为权威的期刊或会议。以下论文的pdf(含各位作者的联系邮箱)大多可在arxiv网站或谷歌/百度上按照文章名搜索得到:https://arxiv.org/[33] Xu Yang, Changxing Ding*, Zhibin Hong, Junhao Huang, Jin Tao, Xiangmin Xu, "Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On", CVPR, 2024 (CCF A类).[32] Wentao Tan, Changxing Ding*, Jiayu Jiang, Fei Wang, Yibing Zhan, Dapeng Tao, "Harnessing the Power of MLLMs for Transferable Text-to-Image Person ReID", CVPR, 2024 (CCF A类).[31] Zhuolong Li, Xingao Li, Changxing Ding*, Xiangmin Xu, "Disentangled Pre-training for Human-Object Interaction Detection", CVPR, 2024 (CCF A类).[30] Yifei Liu, Qiong Cao, Yandong Wen, Huaiguang Jiang, Changxing Ding*, "Towards Variable and Coordinated Holistic Co-Speech Motion Generation", CVPR, 2024 (CCF A类).[29] Yiyang Chen, Lunhao Duan, Shanshan Zhao, Changxing Ding*, Dacheng Tao, "Local-Consistent Transformation Learning for Rotation-invariant Point Cloud Analysis", CVPR, 2024 (CCF A类).[28] Yiyang Chen, Shanshan Zhao, Changxing Ding*, et al., "Cross-Modal & Cross-Domain Learning for Unsupervised LiDAR Semantic Segmentation", ACM MM, 2023 (CCF A类).[27] Zhiyin Shao, Xinyu Zhang, Changxing Ding*, Jian Wang, Jingdong Wang, "Unified Pre-training with Pseudo Texts for Text-To-Image Person Re-identification", ICCV, 2023. (CCF A类)[26] Wentao Tan, Changxing Ding*, Pengfei Wang, Mingming Gong, Kui Jia, "Style Interleaved Learning for Generalizable Person Re-identification", IEEE Trans. Multimedia (T-MM), 2023.[25] Zhifeng Lin, Changxing Ding*, Huan Yao, Zengsheng Kuang, Shaoli Huang, “Harmonious Feature Learning for Interactive Hand-Object Pose Estimation”, CVPR, 2023. (CCF A类)[24] Shengcong Chen, Changxing Ding*, Dacheng Tao, Hao Chen, "DARC: Distribution-Aware Re-Coloring Model for Generalizable Nucleus Segmentation", MICCAI, 2023.  (医学图像处理顶会)[23] Kan Wang, Changxing Ding*, Xinjian Pang, Xiangmin Xu, “Context Sensing Attention Network for Video-based Person Re-identification”, ACM Transactions on Multimedia Computing Communications and Applications (TOMM), 2023.[22] Shengcong Chen, Changxing Ding*, Minfeng Liu, Jun Cheng, Dacheng Tao, “CPP-Net: Context-aware Polygon Proposal Network for Nucleus Segmentation”, IEEE Trans. Image Processing (T-IP), 2023. (CCF A类)[21] Xubin Zhong, Changxing Ding*, Zijian Li, Shaoli Huang, "Towards Hard-Positive Query Mining for DETR-based Human-Object Interaction Detection", ECCV, 2022. (CV领域三大顶会之一)[20] Zhiyin Shao, Xinyu Zhang, Meng Fang, Zhifeng Lin, Jian Wang, Changxing Ding*, "Learning Granularity-Unified Representations for Text-to-Image Person Re-identification", ACM MM, 2022. (CCF A类)[19] Xian Qu, Changxing Ding*, Xingao Li, and etc., “Distillation Using Oracle Queries for Transformer-based Human-Object Interaction Detection”, CVPR, 2022. (CCF A类)[18] Xin Lin, Changxing Ding*, Jing Zhang, etc., “RU-Net: Regularized Unrolling Network for Scene Graph Generation”, CVPR, 2022. (CCF A类)[17] Xin Lin, Changxing Ding*, Yibing Zhan, etc., “HL-Net: Heterophily Learning Network for Scene Graph Generation”, CVPR, 2022. (CCF A类)[16] Pengfei Wang, Changxing Ding*, Wentao Tan, etc., “Uncertainty-aware Clustering for Unsupervised Domain Adaptive Object Re-identification”, IEEE Trans. Multimedia (T-MM), 2022.[15] Pengfei Wang, Changxing Ding*, Zhiyin Shao, etc., “Quality-aware Part Models for Occluded Person Re-identification”, IEEE Trans. Multimedia (T-MM), 2022.[14] Xubin Zhong, Changxing Ding*, and etc.,“Polysemy Deciphering Network for Robust Human–Object Interaction Detection,” International Journal of Computer Vision (IJCV), 2021. (CCF A类)[13] Kan Wang, Pengfei Wang, Changxing Ding*, and etc., “Batch Coherence-Driven Network for Part-Aware Person Re-Identification,” IEEE Trans. Image Processing (T-IP), 2021. (CCF A类)[12] Xubin Zhong, Xian Qu, Changxing Ding*, and etc.,“Glance and Gaze: Inferring Action-aware Points for One-Stage Human-Object Interaction Detection”, CVPR, 2021. (CCF A类)[11] Tong Zhou, Changxing Ding*, and etc., “Learning Oracle Attention for High-fidelity Face Completion”, CVPR, 2020. (CCF A类)[10] Xubin Zhong, Changxing Ding*, and etc.,“Polysemy Deciphering Network for Human-Object Interaction Detection,” ECCV, 2020. (CV领域三大顶会之一)[9] Xin Lin, Changxing Ding*, and etc., “GPS-Net: Graph Property Sensing Network for Scene Graph Generation”, CVPR Oral, 2020. (CCF A类)[8] Shengcong Chen, Changxing Ding*, and etc., "Boundary-assisted Region Proposal Networks for Nucleus Segmentation", MICCAI, 2020. (医学图像处理顶会)[7] Chenhong Zhou, Changxing Ding*, and etc., “One-pass multi-task networks with cross-task guided attention for brain tumor segmentation”, IEEE Trans. Image Processing (T-IP), 2020. (CCF A类)[6] Kan Wang, Changxing Ding*, and etc., "CDPM: convolutional deformable part models for semantically aligned person re-identification", IEEE Trans. Image Processing (T-IP), 2020. (CCF A类)[5] Chenhong Zhou, Changxing Ding*, and etc., “One-Pass Multi-task Convolutional Neural Networks for Efficient Brain Tumor Segmentation", MICCAI, 2018. (医学图像处理顶会)[4] Changxing Ding*, Kan Wang, and etc., “Multi-task Learning with Coarse Priors for Robust Part-aware Person Re-identification”, IEEE Trans. Pattern Anal. Mach. Intell. (T-PAMI), 2022. (CCF A类)[3] Changxing Ding*, Dacheng Tao, "Trunk-branch ensemble convolutional neural networks for video-based face recognition", IEEE Trans. Pattern Anal. Mach. Intell. (T-PAMI), 2018. (CCF A类、ESI高被引论文)[2] Changxing Ding, Jongyun Choi, and etc., "Multi-directional multi-level dual-cross patterns for robust face recognition", IEEE Trans. Pattern Anal. Mach. Intell. (T-PAMI), 2016. (CCF A类、ESI高被引论文)[1] Changxing Ding, Chang Xu, and etc., "Multi-task pose-invariant face recognition", IEEE Trans. Image Processing (T-IP), 2015. (CCF A类、ESI高被引论文) 教学活动 《机器学习》,本科生、研究生课程《深度学习与计算机视觉》,本科生课程 我的团队 本团队的研究领域为计算机视觉、多模态学习,重点研究面向具身智能(Embodied AI)的视觉语义理解与生成任务,如视觉关系检测、大模型鲁棒推理、人体运动生成、跨模态图像检索等。实验室有充足的经费与GPU硬件设备支撑学生的学习与生活,每月发放的科研补助完全可以满足研究生正常的生活需求。根据项目实际情况,表现出色的同学还会有充足的额外奖励。实验室配备科研助理,无需研究生做任何与科研无关的杂事。因此,本人只招收对计算机视觉技术真正感兴趣的学生。另外,本人也为表现出色的同学提供了大量出国/出境读博和大厂实习的机会,有意愿的同学请尽快联系。

丁长兴