手頃な価格のオンプレLLMトレーニングと 効率的な推論ソリューション

あなたにぴったり 予算
使いやすく、導入しやすい
データを安全管理、
プライバシーを守ります

手頃な価格

高価なHBMやGDDRメモリをコスト効率の良いフラッシュメモリへオフロードして、高コストで電力消費の多いGPUカードを大量に使用する必要性を排除。

大量のデータセットをローカルに保持することで、処理のためにデータを別の場所に転送するコストを削減できます。

高価なHBMやGDDRメモリをコスト効率の良いフラッシュメモリへオフロードして、高コストで電力消費の多いGPUカードを大量に使用する必要性を排除。

大量のデータセットをローカルに保持することで、処理のためにデータを別の場所に転送するコストを削減できます。

使いやすさ

家庭、オフィス、教室、またはデータセンターに簡単に導入可能。省スペース設計で、一般的な電源と冷却システムで使用可能。

コマンドラインからのアクセス、もしくは直感的なGUIを利用してのアクセスが可能。モデルの取り込み、ファインチューニング、検証、推論をオールインワンのツールセットで実行可能。

Easily deploys in your home, office, classroom or data center with a small footprint while using commonplace power & cooling.

 

Offers command line access or intuitive GUI with all-in-one toolset for model ingest, fine-tuning, and validation and inference.

機密性の高いデータ

ファイアウォール内でLLMのトレーニングを実行可能。プライベートデータを完全に管理でき、データコンプライアンスにより、安心で使えます。

高速、プライベート・オンプレ AI 推論、どこからでも

aiDAPTIV+はクラウドコンピューティングと比較して、エッジデバイス上で大規模言語モデル(LLM)を実行することができ、より低コスト、より少ない計算リソース、低消費電力で推論を行えます。 また、応答速度を向上させ、より多くのコンテキストを活用することで、正確かつカスタマイズされた回答を提供するとともに、データのプライバシーと主権を確保します。

AIトレーニングPCでLLMトレーニングを学ぶ

個人や企業向けに費用対効果の高い AI トレーニングPCを提供することで、単なる推論の学習にとどまらず、モデルのファインチューニング方法も習得可能。これにより、LLMトレーニングの技術人材不足を解消し、独自データを活用したトレーニングを容易に実現。

エッジコンピューティングとロボティクス向けIoT

NVIDIA Jetson IoTデバイスは、Phison aiDAPTIV+ を活用して最初のトークンリコール時間を短縮し、推論パフォーマンスを向上させます。さらに、トークン長を拡張することで、より長く正確な回答を可能にします。また、aiDAPTIV+ によりJetson IoTデバイス上でのLLMモデルのトレーニングが可能になります。

AIノートパソコン

GPUとPhison aiDAPTIV+ を搭載したAIノートパソコンを使用することで、個人は自宅やオフィス、教室でLLMのトレーニング方法を学ぶことができます。また、トレーニング済みのLLMをオンプレミスで運用し、自身のデータを活用したモデルにより、推論プロンプトに対するより適切な応答を得ることができます。aiDAPTIV+ を使用すると、プロンプトリコール時間が短縮され、より多くのコンテキストを処理できるため、より長く正確な回答を生成できます。

LLMトレーニングのユースケース

オンプレミスでのLLMトレーニングにより、組織や個人は一般的な知識モデルをドメイン固有のデータで強化できます。これにより、医療診断、財務予測、法的分析、製品開発などの専門分野において、使いやすさ、関連性、精度が向上します。

ファイソンaiDAPTIV+ LLMトレーニング統合ソリューション

コマンドラインを使用するか、直感的なオールインワンの aiDAPTIV+ Pro Suite を利用して LLM トレーニングを実行します

対応モデル

  • Llama, Llama-2, Llama-3, CodeLlama
  • Vicuna, Falcon, Whisper, Clip Large
  • Metaformer, Resnet, Deit base, Mistral, TAIDE
  • さらに多くのモデルを対応する予定です。
and/or

内蔵メモリ管理ソリューション

シームレスな PyTorch 互換性を体験し、AI アプリケーションを調整する必要がなく、ノードを簡単に追加できます。システム サプライヤーは、AI100E SSD、ミドルウェア ライブラリの認証とシステムのスムーズな統合を支援する ファイソンの包括的なサポートを利用できます。

and

GPU メモリとのシームレスな統合

ファイソンaiDAPTIVCache とミドルウェアは GPU メモリを拡張でき、PC には320 GBの追加メモリ、ワークステーションとサーバーには最大 8 TB の追加メモリを提供し、低遅延の LLM トレーニングをサポートします。さらに、業界をリードする100 DWPD という極めて高い耐久性を備え、特別な設計でファイソンの高度なNANDエラー訂正アルゴリズム技術をサポートしています。

シームレスで完璧な統合

  • GPUメモリ容量を拡張するために最適化されたミドルウェア
  • 2x 2TB aiDAPTIV キャッシュ、70B モデルをサポート
  • 低遅延

高耐久性

  • 業界をリードするDWPD 5 年以内に 1 日あたり 100 回の書き込み
  • 高度な NAND 修正アルゴリズムを備えた SLC NAND

推論の向上

aiDAPTIV+ は、最初のトークンリコール時間を短縮することで、推論体験を向上させます。さらに、トークン長を拡張することで、より長く正確な回答を提供するためのコンテキストが増加します。

モデルの無限の可能性を解き放つ

aiDAPTIV+ はフラッシュ メモリと DRAM を統合することでより大きなメモリ リソースを提供するため、モデルサイズは GPU グラフィックス カードの HBM やGDDR メモリの容量によって制限されなくなります。

これにより、大規模なモデルをトレーニングし、かつては大企業やクラウド サービス プロバイダーのみが利用できたコンピューティング需要をより手頃な価格で実行できるようになります。

リソース

業界からの支持

テクニカルサポート

ファイソンの専用テクニカル サポートは、初期実装から継続的な運用と最適化に至るまで、製品ライフサイクル全体を通じて、aiDAPTIV+ に対するエンドツーエンドの支援を提供します。当社の専門家チームは、迅速なトラブルシューティング、ファームウェア調整、パフォーマンス調整を提供し、シームレスな統合と製品効率の最大化を保証します。当社のサポート エンジニアと最先端のツールにアクセスすることで、ファイソン の aiDAPTIV+ の顧客とパートナーは、AI ワークロードの投資収益率を最大化しながら市場投入までの時間を短縮できます。

Phison’s dedicated technical support offers end-to-end assistance for aiDAPTIV+ throughout the entire product lifecycle, from initial implementation to on-going operation and optimization.

 

Our team of experts provides rapid troubleshooting, firmware adjustments, and performance tuning to ensure seamless integration and maximum product efficiency.

 

With access to our support engineers and cutting-edge tools, Phison’s aiDAPTIV+ customers and partners can accelerate time-to-market while maximizing return on investment for their AI workloads.