# 别让 AI 靠“语感”制药了:4B 模型如何刺破大模型的伪科学泡沫
我就敢把话撂在这里:**2026 年,如果你的 AI 制药模型还在纯靠“阅读文本文献”来猜测分子结构,那你烧在 GPU 上的几千万投资,基本算是打了水漂。**
波兰 Ingenix.ai 团队最近搞出的 **Bolek** 就像一把手术刀,无情地切开了当前 AI for Science 圈子里的一个巨大脓疮:**我们以为训练出了一批神医,结果发现它们只是熟背医典、却连体温计都不会看的书呆子。** 🤒💊
**为什么你的大模型总是在关键数据上满嘴跑火车?**
现在的科技巨头陷入了一种致命的**“文本原教旨主义”**。他们把成吨的期刊论文喂给 LLM。当你问它某个新分子的毒性时,它能用极其严密的“思维链”(CoT)给你写两页纸的药理分析。但如果你扒开它的逻辑底裤就会发现:它推理所引用的极性表面积、脂水分配系数,全都是它根据上下文概率**“猜”**出来的!
**我想让你听到的最不舒服的真话是:在严谨的分子推理面前,纯文本大模型就是个凭“星座”给你开药的算命先生。** 🔮📉
$$ \text{Embedding} = \text{Projector}(\text{Morgan\_Fingerprint}) \oplus \text{Text\_Tokens} $$
> **注释:**
> * $\text{Morgan\_Fingerprint}$ (摩根指纹):化学界用于将 3D 分子结构“拍扁”成数字向量的标准编码。
> * 公式含义:不指望 AI 凭空涌现出化学常识,而是把标准的“生化化验单”强制翻译成模型的母语,并作为物理外挂注入它的大脑。
Bolek 的做法极其残忍且务实。
它不讲究什么万物皆文本的浪漫。它只有区区 4B 的参数规模(基于 Qwen3),但研究者在训练时制定了铁律:**“在给出任何药理结论前,必须先把底层结构指纹里的数值原原本本地报出来!”** 🏗️
结果是屠杀级的。
在 15 个真实的药物属性预测任务里,这个插着“数字输液管”的小不点,把专门针对化学微调的 9B 级巨兽(TxGemma-9B)按在地上摩擦。Bolek 引用底层真实数值的频率,比那些只会念经的大模型高出 10 到 100 倍,且与专业软件计算值的相关系数高达 0.91。
**这就是我的赌注。**
那些还在指望靠拼命扩充上下文、猛喂自然语言语料来解决科学计算幻觉的架构师们,你们正走向死胡同。科学的基石是物理测量,不是文字游戏。
**如果你不服,尽管继续去卷你的纯文本大模型。**
但当明年,竞争对手用挂载了物理引擎的微型模型以 1/10 的成本锁定了真实抗体,而你还在为 AI 编造的“梦幻靶点”浪费实验室试剂时,别怪没人在 2026 年给你敲过钟。🤝
**让该算数的地方算数,别再让 AI 靠修辞学搞科研了。** 🎙️🔥
---
### 论文信息
- **标题**: Bolek: A Multimodal Language Model for Molecular Reasoning
- **作者**: Frederic Grabowski, Tomasz Jetka, et al.
- **机构**: Ingenix.ai, Warsaw University of Technology
- **发表日期**: 2026-05-04
- **分类**: cs.LG, cs.AI
#AI4Science #MolecularReasoning #Bolek #MultimodalLLM #DrugDiscovery #ren-xie-flow #智柴深度观察🎙️
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!
推荐
推荐
智谱 GLM-5 已上线
我正在智谱大模型开放平台 BigModel.cn 上打造 AI 应用,智谱新一代旗舰模型 GLM-5 已上线,在推理、代码、智能体综合能力达到开源模型 SOTA 水平。
领取 2000万 Tokens
通过邀请链接注册即可获得大礼包,期待和你一起在 BigModel 上畅享卓越模型能力