GFLOPS 生成AI HUB

GFLOPS -AskDona

3/5ページ

9月12日最新:OpenAI社の大規模言語モデル「o1」にも適用されたChain-of-Thought (CoT)とは?

OpenAI社の大規模言語モデル「o1」とは? 2024年9月、OpenAIは新しい大規模言語モデル「o1」を発表しました。reinforcement learningによって訓練されたo1は、複雑な推論タスクに特化して設計されており、競技プログラミングや学術ベンチマークにおいて、従来のモデルを凌駕するパフォーマンスを発揮します。 Chain-of-Thought (CoT)とは? 人間の推論と同 […]

法人が活用できるChatGPTのビジネスプロンプト200選!プロンプトを使いこなして業務効率化!

会社としてChatGPTの利用が許可されたとしても、ChatGPTにどんな質問を投げかけてどんな業務効率をあげるのかお悩みの社員の方も多いのではないでしょうか?本記事では、業務で活用できる法人向けのビジネスプロンプトを参考として記載しております。 本ブログに書いてあるプロンプトをChatGPTと会話を始める前に、定義してあげることで意図しているアウトプットを生成することができます。是非ご参考くださ […]

法人向けChatGPT導入ガイド|契約プラン、料金、導入手順を徹底解説

ChatGPTを法人導入することで、これまで人手に頼っていた単純作業を自動化し、業務効率を大幅に向上させることができます。また、ChatGPTはアイデアの整理や発展を支援するツールとしても活用でき、ブレインストーミングや企画立案など、創造的な業務をサポートします。ChatGPTがもたらす業務効率化により企業は戦略的な思考やクリエイティブな業務に、より多くの時間とリソースを投入できるようになります。 […]

論文紹介:パーソナライズされたマルチモーダルAI検索エンジンを実現する学習可能なエージェント連携ネットワークフレームワークA Learnable Agent Collaboration Network Framework for Personalized Multimodal AI Search Engine

論文タイトル:A Learnable Agent Collaboration Network Framework for Personalized Multimodal AI Search Engine [Submitted on 1 Sep 2024] https://arxiv.org/abs/2409.00636 この論文では、Agent Collaboration Network (ACN […]

OpenAI社の次世代モデルGPT-5に何が期待できるか?リリース前に事前に把握したいChatGPTのモデル特徴

大規模言語モデル(LLM)に関心のある人は、OpenAIのGPTシリーズの最新バージョンも気になっているかと思います。今年は、特にGPT-4 TurboとGPT-4o/Omniが話題になりました。GPT-4 Turboは精度が向上し、GPT-4o/Omniは推論能力が強化され、音声やオーディオにも対応できるようになりました。 1〜2年ごとに新しい主要モデルをリリースしてきたOpenAI社のペースを […]

AskDonaのデモサイトー 令和6年版情報通信白書(PDF版)をAskDonaのRAGフレームワークで読み込ませた生成AIチャットと高度検索とは?

AskDonaのデモサイト RAGの回答の質は資料を実際に読み込ませて回答を生成させることで評価できます。総務省が公表している令和6年版情報通信白書をAskDonaのRAGフレームワークに読み込んでいます。 デモサイトはこちら ご利用開始前に必ず一読お願いいたします。   AskDonaには『生成AIチャット』と『高度検索』があります。

理研の富岳サポートサイトが利用しているRAGとは?GFLOPS×理研 – AskDona

  • 2024.08.23
  • RAG

「理化学研究所がGFLOPSの生成AIアシスタント「AskDona」の利用を開始」 理化学研究所(理研)は当社の生成AIアシスタント「AskDona(アスクドナ)」を富岳サポートサイトに導入されています。AskDona(アスクドナ)は、スーパーコンピューター「富岳」の利用者からの質問に対して迅速かつ正確な回答をリアルタイムにチャット形式で提供しています。導入の背景には、利用者が膨大な技術情報から必 […]

RAGのChunkingとは?(続)LLMのコンテキストウィンドウの制限を理解してチャンク化を検討する

  • 2024.08.23
  • RAG

データを分割するチャンク化とは? チャンク化(Chunking)とは、ドキュメントから抽出したテキスト等のデータを小さな「チャンク(Chunk)」に分割するプロセスです。チャンク化は検索拡張生成(RAG)を適用するときに必要となる処理ですが、そもそもチャンク化が必要な理由は、大規模言語モデル(LLM)のコンテキストウィンドウに制限があるからです。 外部情報としてドキュメント情報をLLMに送信する際 […]

PDFのテキスト抽出が難関である理由、RAGを構築するにあたって直面するハードルとは?

  • 2024.08.09
  • RAG

PDFからテキストを抽出することが難しい理由とは? PDFは、さまざまなデバイスやプラットフォームでコンテンツの正確なレイアウトを維持するように設計されています。また、ドキュメントがどこで表示または印刷されても同じように見える状態で保存されています。PDFは統一されたコンテンツをドキュメント化して共有する手段としては最も適しています。 しかし、PDFが持つこの形式がRAGのテキスト抽出をする際に障 […]

LLMのTemperatureとは?最適なTemperatureの設定はあるのか?

LLM(大規模言語モデル)の出力を調整するための重要なパラメーターの一つに「Temperature」があります。この設定は、モデルが生成するテキストのランダム性と創造性に大きく影響を与えます。Temperatureの設定を理解し、適切に調整することで、LLMの出力をより効果的に制御し、目的に応じた最適な結果を得ることができます。 Temperatureとは? Temperatureは、モデルが次に […]

1 3 5