
国际顶级学术期刊《科学》(Science)刊发一项重磅科研成果:上海交通大学集成电路学院陈一彤课题组成功研发全球首个支持大规模语义视觉生成的全光计算芯片LightGen。该芯片实现单片集成百万级光学神经元的重大突破,首次完成“输入—理解—语义操控—生成”全光闭环,在算力与能效上较现有顶尖数字芯片实现数量级跃升,为破解AI大模型发展的算力瓶颈、推动计算范式从电子时代向光子时代演进奠定关键基础。
随着深度神经网络与大规模生成模型的迅猛发展,“算力不够用、能耗扛不住”已成为全球AI产业的核心痛点。传统电子芯片依赖电子在晶体管中传输运算,受限于电子迁移速度和散热问题,性能增长陷入瓶颈。在此背景下,以光子为信息载体的光计算因天然具备高速并行、低功耗的优势,被视为突破算力桎梏的重要方向。但长期以来,全光芯片难以支撑大规模生成式AI任务,核心症结在于集成规模不足、全光维度转换困难、依赖人工真值的训练算法等三大行业难题。
上海交大团队研发的LightGen芯片,成功攻克了上述三大关键瓶颈,实现全光计算领域的跨越式突破。据团队介绍,该芯片通过高度集成的超表面结构与三维封装技术,在单枚芯片上集成超过210万个光子神经元,远超现有光子芯片数千个神经元的集成规模,为大规模语义生成任务提供了核心硬件支撑;创新构建光学潜空间(OLS),首次在全光学条件下实现模拟光斑的维度精准转换,搭建起图像域与光学潜域的沟通桥梁;提出基于贝叶斯思想的无监督训练算法(BOGT),摆脱了传统光芯片对人工标签的依赖,让光芯片具备自主学习语义特征的能力,真正实现让光“理解”和“认知”语义。
与传统电子芯片相比,LightGen的性能优势堪称“革命性”。采用极严格的算力评价标准实测表明,即便搭配性能较滞后的输入设备,LightGen在完成高分辨率(≥512×512)图像生成、三维建模(NeRF)、高清视频生成及语义调控等任务时,算力和能效仍较业界顶尖的英伟达A100芯片高出两个数量级。若匹配前沿输入设备突破信号频率瓶颈,该芯片理论上可实现算力提升7个数量级、能效提升8个数量级的跨越式突破,这意味着AI生成任务的响应速度将从毫秒级缩短至微秒级,数据中心的电力消耗与散热压力也将大幅降低。
值得关注的是,LightGen首次实现全光域“输入—理解—语义操控—生成”的完整闭环,彻底摆脱了“电辅助光生成”的传统模式,可独立完成从接收输入图像到生成全新媒体数据的端到端过程。实验验证显示,该芯片不仅能高效完成高分辨率图像、高清视频的生成任务,还支持去噪、局部与全局特征迁移等多项大规模生成式任务,生成质量可与Stable Diffusion、Style Injection Diffusion等前沿电子神经网络相媲美。










