ELYZAは、商用利用可能な130億パラメータの日本語LLM「ELYZA-japanese-Llama-2-13b」を開発し、2023年12月27日に一般公開した。
ELYZA-japanese-Llama-2-13bは、パラメータ数を130億に増加させるとともに、事後学習に使用するデータを更に増強したことによって、「ELYZA-japanese-Llama-2-7b」を上回る性能を実現している。なお、ライセンスはLlama 2 Community Licenseに準拠しており、Acceptable Use Policyに従う限りにおいて、研究および商業目的で利用できる。
あわせて、Hugging Face hubにてチャット形式のデモも公開しており、デモの公開にあたってvLLMを用いた推論の高速化も行われた。高速化が体験に与える恩恵は当初想定よりも大きく、その効果を最大限に体感してもらうべく、A100 GPUを使用したデモ提供が決定されている。
今回のモデル学習は、AI橋渡しクラウド(AI Bridging Cloud Infrastructure、ABCI)を利用して実施されており、70Bモデルの開発も引き続き行っていく。さらに「Llama 2」での取り組みに限らず、海外のオープンなモデルの日本語化や、独自のLLMの開発に継続して投資をしていくという。
この記事は参考になりましたか?
- この記事の著者
-
ProductZine編集部(プロダクトジンヘンシュウブ)
「プロダクト開発」にフォーカスしたオンラインメディアです。プロダクトマネージャーや、プロダクトマネージャーを目指す方をはじめ、チームメンバーや事業責任者、テックリードなど、プロダクト開発を「正しく」進めていきたいすべての人のために、プロダクトマネジメントに関するあらゆる知見をお届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア