Ep.1069 富士通がAI軽量化の“秘伝のタレ”を無償公開──「OneCompression」が加速させるエッジAIの未来(2026年4月2日配信) Podcast By  cover art

Ep.1069 富士通がAI軽量化の“秘伝のタレ”を無償公開──「OneCompression」が加速させるエッジAIの未来(2026年4月2日配信)

Ep.1069 富士通がAI軽量化の“秘伝のタレ”を無償公開──「OneCompression」が加速させるエッジAIの未来(2026年4月2日配信)

Listen for free

View show details

2026年3月31日、富士通のAI研究チームが、AI開発者の間で非常に大きな話題となるツール「OneCompression」を、世界的なソースコード共有サイトであるGitHub上で無償公開しました。背景として、富士通は2025年9月に「AIのメモリ消費を94パーセント削減しつつ、89パーセントの精度を維持する」という驚異的な軽量化技術を発表し、同社の企業向けLLM「Takane」にも組み込んでいました。今回公開されたOneCompressionは、まさにその「秘伝のタレ」とも言えるコア技術を、世界中の誰もが使えるPythonのパッケージとして提供するものです。


具体的な目玉機能として、NeurIPS 2025という世界最高峰のAI国際会議でも発表された「QEP(量子化エラー伝搬)」という技術が搭載されています。通常、AIモデルを極限まで圧縮する量子化を行うと、層が深くなるにつれて計算のズレが雪だるま式に大きくなり、AIが急に的外れな回答をするようになってしまいます。しかしQEPは、そのズレを自動で予測し、次の層の計算で巧みに打ち消すことで、超高圧縮と高精度を見事に両立させています。さらに、パソコンのグラフィックボードの空き容量に合わせて自動で最適な圧縮率を調整してくれる「AutoBit」といった実用的な機能も豊富に備わっています。


これが市場に与えるインパクトは絶大です。現在、クラウド上の巨大なデータセンターではなく、手元のパソコンやスマートフォンのようなエッジデバイスで安全かつ高速にAIを動かす需要が爆発的に高まっています。高価なハイエンドGPUが手に入りにくい昨今、この技術を使えば、安価なローエンドGPUや一般的なパソコンでも、高性能な大規模言語モデルをサクサク動かすことができるようになります。日本を代表するITベンダーである富士通が、こうした世界トップレベルの研究成果を自社に抱え込まず、オープンソースとして惜しげもなく世界中の開発者に提供したことは、非常に素晴らしい英断ですよね。私たちのビジネスの現場でも、手元のパソコンの中で、まるで専属の優秀なアシスタントのようにAIが機密データを安全に処理してくれる未来が、この技術によってまた一歩近づいてきました。

No reviews yet