米Googleは12月17日(現地時間)、高速・低コストを重視したAIモデル「Gemini 3 Flash」を発表した。Gemini 3世代の推論力を、Flash系の低遅延と効率で提供する。同日より、GeminiアプリおよびGoogle検索のAIモードのデフォルトモデルとなり、Gemini API/Google AI Studio ...
会員(無料)になると、いいね!でマイページに保存できます。 AI推論とは? 30秒でわかる「学習」との違い AI推論(Inference)とは、学習済みのAIモデルに新しいデータを入力し、予測・分類・生成といった結果を出す処理を指します。 たとえば、需要予測 ...
米Googleは2月12日(現地時間)、「Gemini 3」の推論モード「Deep Think」のメジャーアップグレードをリリースしたと発表した。今回の更新は、科学、研究、エンジニアリング分野における現代的な課題解決を目的としている。特に、明確なガイドラインや単一の ...
静音水冷設計とコンパクト高密度設計の高性能AIワークステーション 「Ai Compute BOX シリーズ」を発表 ~ 静音性を極めた「Silent」と、省スペースを追求した「mini」をラインアップ ~ ...
生成AIの進化があまりにも早い。「チャットbot型生成AIサービス」が登場してから数年のうちに、生成AIを活用するさまざまな技術――RAG(検索拡張生成)、マルチモーダルAI、いわゆる“推論モデル”(Reasoning Model)、AIエージェント、などがビジネスの現場 ...
会員(無料)になると、いいね!でマイページに保存できます。 従来モデルのGemini 2.5 Flashと比較して、最初の回答が出力されるまでの時間を2.5倍高速化させるとともに、全体の出力速度も45パーセント向上させた。同社は大型モデルの数分の一のコストで ...
アカマイ・テクノロジーズは、間近に迫るAI時代に向けた自社の取り組みを語る事業戦略発表会を開催。同社職務執行者社長の日隈寛和氏とマーケティング本部 シニアプロダクトマーケティングマネージャー&エバンジェリストの中西一博氏が登壇しました。
Amazon Web Services(AWS)とCerebras Systemsは3月13日、生成AIアプリケーションおよび大規模言語モデル(LLM)向けに世界最速クラスのAI推論ソリューションを提供することを目的とした協業を発表した。 閉じる これにより両社は、AWSのTrainium搭載サーバとCerebrasのCS-3 ...
AI推論のアプリケーションを大規模に提供するベンダー、一般消費者向けにAIの機能を顧客に提供するような企業 (たとえばAppleやGoogle、OpenAIなど)、あるいはクラウドサービス事業者のIaaSを利用してAI推論のアプリケーションを顧客に提供するSaaSアプリケーションベンダーなどは、AI推論処理に膨大なコストを支払っているのが現状だ。