Organic photovoltaic(OPV)cells hold great promise as next-generation green energy owing to their tunable photoelectronic properties and compatibility with large-area solution printing.However,most high-performance mat...Organic photovoltaic(OPV)cells hold great promise as next-generation green energy owing to their tunable photoelectronic properties and compatibility with large-area solution printing.However,most high-performance materials have been optimized primarily for standard sunlight,with limited strategies for multi-spectral illuminations.Here,we report two wide-bandgap donor polymers,PDBQx-γand PDBQx-β,integrating a dibenzo[f,h]quinoxaline unit and a two-dimensional benzodithiophene unit linked by alkyl-thiopheneπ-spacers.Optimized molecular design of PDBQx-βenables enhanced molecular packing,favorable morphology,and superior charge transport,delivering a power conversion efficiency(PCE)of 13.7%for PDBQx-β:FTCC-Br based on single-junction OPV cells under AM 1.5G illumination.Furthermore,the fabricated large-area OPV modules(23.6 cm2)achieve remarkable PCEs of 26.4%under 660 nm laser,20.8%under underwater illumination,and 27.3%under indoor light.This study demonstrates a molecular design strategy for wide-bandgap polymers intrinsically compatible with diverse light sources,advancing OPV technology toward multi-scene applications.展开更多
目标检测是遥感影像解译当中最重要的任务之一。当前,基于深度学习的遥感目标检测模型大多依赖于预定义的锚框,且往往忽略了场景中的上下文信息,导致检测性能和泛化能力受限。基于此,本文提出了一种面向遥感影像目标检测的场景关联无锚...目标检测是遥感影像解译当中最重要的任务之一。当前,基于深度学习的遥感目标检测模型大多依赖于预定义的锚框,且往往忽略了场景中的上下文信息,导致检测性能和泛化能力受限。基于此,本文提出了一种面向遥感影像目标检测的场景关联无锚框YOLO网络(Scene Related Anchor-Free YOLO,SRAF-YOLO)。SRAF-YOLO首先引入了一种场景增强的多尺度特征提取模块,通过将场景特征与目标特征融合,生成富含场景上下文信息的场景增强特征,并进一步利用多尺度操作提取包含场景语义的多尺度特征,有效引入场景上下文信息。在此基础上,设计了一种场景辅助无锚框检测头,利用特征图中的场景信息对目标类别预测进行约束,以提升检测精度,同时无锚框结构有效减少了锚框相关参数的计算量。在RSOD和NWPU VHR-10数据集上的实验结果表明,SRAF-YOLO通过融合场景信息和无锚框机制提升了目标检测精度,平均精度均值(mAP)分别达到94.58%和95.95%,相较于基线模型YOLOv8分别提升了1.51%和3.0%,并优于其他对比方法。在外部数据集上的验证结果进一步证实,该算法具备良好的泛化能力。展开更多
针对现有的三维视觉定位方法依赖昂贵传感器设备、系统成本高且在复杂多目标定位中准确度和鲁棒性不足的问题,提出一种基于单目图像的多目标三维视觉定位方法。该方法结合自然语言描述,在单个RGB图像中实现对多个三维目标的识别。为此,...针对现有的三维视觉定位方法依赖昂贵传感器设备、系统成本高且在复杂多目标定位中准确度和鲁棒性不足的问题,提出一种基于单目图像的多目标三维视觉定位方法。该方法结合自然语言描述,在单个RGB图像中实现对多个三维目标的识别。为此,构建一个多目标视觉定位数据集Mmo3DRefer,并设计跨模态匹配网络TextVizNet。TextVizNet通过预训练的单目检测器生成目标的三维边界框,并借助信息融合模块与信息对齐模块实现视觉与语言信息的深度整合,进而实现文本指导下的多目标三维检测。与CORE-3DVG(Contextual Objects and RElations for 3D Visual Grounding)、3DVG-Transformer和Multi3DRefer(Multiple 3D object Referencing dataset and task)等5种方法对比的实验结果表明,与次优方法Multi3DRefer相比,TextVizNet在Mmo3DRefer数据集上的F1-score、精确度和召回率分别提升了8.92%、8.39%和9.57%,显著提升了复杂场景下基于文本的多目标定位精度,为自动驾驶和智能机器人等实际应用提供了有效支持。展开更多
基金support from the Beijing Municipal Science&Technology Commission(2254104)support from National Natural Science Foundation of China(NSFC,52120105005)support from NSFC(52473166).We thank the 1W1A Diffuse X-ray Scattering Beamline of Beijing Synchrotron Radiation Facility(https://cstr.cn/31109.02.BSRF.1W1A)for providing technical support and assistance in GIWAXS data collection.
文摘Organic photovoltaic(OPV)cells hold great promise as next-generation green energy owing to their tunable photoelectronic properties and compatibility with large-area solution printing.However,most high-performance materials have been optimized primarily for standard sunlight,with limited strategies for multi-spectral illuminations.Here,we report two wide-bandgap donor polymers,PDBQx-γand PDBQx-β,integrating a dibenzo[f,h]quinoxaline unit and a two-dimensional benzodithiophene unit linked by alkyl-thiopheneπ-spacers.Optimized molecular design of PDBQx-βenables enhanced molecular packing,favorable morphology,and superior charge transport,delivering a power conversion efficiency(PCE)of 13.7%for PDBQx-β:FTCC-Br based on single-junction OPV cells under AM 1.5G illumination.Furthermore,the fabricated large-area OPV modules(23.6 cm2)achieve remarkable PCEs of 26.4%under 660 nm laser,20.8%under underwater illumination,and 27.3%under indoor light.This study demonstrates a molecular design strategy for wide-bandgap polymers intrinsically compatible with diverse light sources,advancing OPV technology toward multi-scene applications.
文摘目标检测是遥感影像解译当中最重要的任务之一。当前,基于深度学习的遥感目标检测模型大多依赖于预定义的锚框,且往往忽略了场景中的上下文信息,导致检测性能和泛化能力受限。基于此,本文提出了一种面向遥感影像目标检测的场景关联无锚框YOLO网络(Scene Related Anchor-Free YOLO,SRAF-YOLO)。SRAF-YOLO首先引入了一种场景增强的多尺度特征提取模块,通过将场景特征与目标特征融合,生成富含场景上下文信息的场景增强特征,并进一步利用多尺度操作提取包含场景语义的多尺度特征,有效引入场景上下文信息。在此基础上,设计了一种场景辅助无锚框检测头,利用特征图中的场景信息对目标类别预测进行约束,以提升检测精度,同时无锚框结构有效减少了锚框相关参数的计算量。在RSOD和NWPU VHR-10数据集上的实验结果表明,SRAF-YOLO通过融合场景信息和无锚框机制提升了目标检测精度,平均精度均值(mAP)分别达到94.58%和95.95%,相较于基线模型YOLOv8分别提升了1.51%和3.0%,并优于其他对比方法。在外部数据集上的验证结果进一步证实,该算法具备良好的泛化能力。
文摘针对现有的三维视觉定位方法依赖昂贵传感器设备、系统成本高且在复杂多目标定位中准确度和鲁棒性不足的问题,提出一种基于单目图像的多目标三维视觉定位方法。该方法结合自然语言描述,在单个RGB图像中实现对多个三维目标的识别。为此,构建一个多目标视觉定位数据集Mmo3DRefer,并设计跨模态匹配网络TextVizNet。TextVizNet通过预训练的单目检测器生成目标的三维边界框,并借助信息融合模块与信息对齐模块实现视觉与语言信息的深度整合,进而实现文本指导下的多目标三维检测。与CORE-3DVG(Contextual Objects and RElations for 3D Visual Grounding)、3DVG-Transformer和Multi3DRefer(Multiple 3D object Referencing dataset and task)等5种方法对比的实验结果表明,与次优方法Multi3DRefer相比,TextVizNet在Mmo3DRefer数据集上的F1-score、精确度和召回率分别提升了8.92%、8.39%和9.57%,显著提升了复杂场景下基于文本的多目标定位精度,为自动驾驶和智能机器人等实际应用提供了有效支持。