文章作者、来源:AIBase
近期,GPT Image2凭借极其惊艳的生成效果在社交媒体上引发轰动。随着项目的走红,这支低调的幕后团队也逐渐浮出水面。据了解,该核心团队仅由13人组成,在短短4个月内便完成了底层架构的彻底重写。尽管研究负责人陈博远并未透露具体的技术路线,但他将这一新模型描述为“图像领域的GPT”,预示着其在通用性上的巨大飞跃。
作为团队的灵魂人物,陈博远的成长历程颇具传奇色彩。他在读博期间便提出过“Diffusion Forcing”等创新范式,并曾在Google参与开发后续被Gemini2.0采用的指令微调技术。有趣的是,他在高中参加科研营时甚至还不懂Python。在加入OpenAI后,他不仅负责了GPT图像模型的所有训练工作,还是Sora视频生成团队的核心成员。在演示中,他通过生成精准渲染中、韩、孟加拉语等多种文字的海报,展示了模型卓越的语言处理能力。
除了文字渲染,GPT Image2在理解世界知识和指令遵循方面也达到了新高度。由中科大博士Jianfeng Wang负责的这一模块,解决了生图AI长期以来的痛点——例如,过去模型画的时钟几乎永远停在10:10,而新模型已能精准理解任意时间点及复杂的空间布局指令。他表示,该模型正在消除用户的创作意图与最终产出之间的鸿沟。
在生产力工具化方面,来自浙大竺可桢学院的Yuguang Yang演示了将长篇论文一键转化为高精度PPT和信息图表的能力。这得益于团队在多模态理解、MoE(混合专家模型)架构以及长程引导技术上的深度融合。
从最初的DALL-E到如今的GPT Image2,这支平均年龄极轻、背景多元的团队(包含多位2025年刚毕业的博士)完成了从“画得出”到“画得准”的进化。目前,团队成员纷纷将社交头像换成了极简的日系贴纸风格。这种带有几分戏谑色彩的自嘲,或许正是这群信奉“涌现式研究”的天才们改变世界的一种独特方式。


