正大期货官网

客服电话

期货市场

DeepSeek新模型被硅谷夸疯了

来源:香港中阳期货    作者:admin    
     DeepSeek推出革命性OCR模型,用“一图胜千言”的巧妙思路解决AI处理长文档的算力难题。这个仅30亿参数的小模型,通过把文字压缩成图片的方式大幅提升处理效率。其单块显卡日生成20万页训练数据的高效能力,获卡帕西等专家称赞并被比作“AI的JPEG时刻”,业内猜测其可能泄露了谷歌Gemini的核心技术机密。
 
  DeepSeek最新开源(16.390, -0.09, -0.55%)的模型,已经被硅谷夸疯了!
 
  因为实在太DeepSeek了。3B规模、指数级效能变革、大道至简,甚至被认为把谷歌Gemini严防死守的商业机密开源了。
 
  唯一的问题可能就是被“OCR”命名耽误了。
 
  是的,DeepSeek刚刚开源即火爆的模型就叫:DeepSeek-OCR。
 
 
  这个模型瞄准的是大模型处理长文本时的算力爆炸难题……虽然模型参数很小,但四两拨千斤,其背后所代表的“用视觉方式压缩一切”的思想,大道至简,既是人类智能的现实,也不断出现在诸如《三体》的科幻作品中。
 
  简单来说,由于一张图能包含大量文字(用的token还更少),所以他们想到并验证了“将视觉作为文本压缩媒介”这一方法——就好比优秀的人看书都是扫一眼就知道内容,不必一字一句读完才理解内容。
 
  一图胜千言。
 
  而且DeepSeek研究后发现,当压缩率小于10倍时(即文本token数是视觉token数的10倍以内),模型OCR解码准确率高达97%;即使压缩率高达20倍,准确率依旧能保持在60%左右,效果相当能打。
 
  更主要的是,DeepSeek再次展现了高效能风格,他们的方法之下,生成训练数据——仅凭一块A100-40G GPU,每天就能生成超过20万页的优质LLM/VLM训练数据。
 
  所以这个研究一经公布,已经快速在GitHub斩获了3.3K star。HuggingFace则已经热榜第二……X上热议,好评声一片。
 
  刚“尖锐”评价过AI现状的卡帕西说:我很喜欢……特别是图像比文字更适合LLM输入,妙啊。
 
  还有人认为这是“AI的JPEG时刻”,AI记忆架构打开了新路径。