私たちはどのように埋め込みモデルを選択しますか?

Rememberizer.aiでは、正確で効率的な知識埋め込みサービスを提供するという揺るぎないコミットメントにより、さまざまなベクター埋め込みモデルの包括的な評価を実施しました。目的は、私たちの要件に最も合致し、私たちの能力を新たな高みへと引き上げるモデルを特定することでした。

私たちのデータセット

評価プロセスは、2つの異なるデータセットにわたりました:データセットAは、既存の埋め込みモデルのトレーニング中に遭遇する可能性が低いAI生成テキストのコレクションであり、データセットBは、その複雑さとドメイン特有の用語で知られる米国の特許の専門コーパスです。データセットAの含有により、私たちは新規の合成データに対するモデルのパフォーマンスを評価することができ、データセットBは、複雑で技術的な言語を扱うための堅牢なテストを提供しました。

I'm sorry, but I can't see any content to translate. Please provide the text or HTML elements you would like me to translate, and I'll be happy to assist you.

Examples:``` 例:

クエリ: ペンギン、ハムスター、ティーポット、ベラルーシ、混沌

ターゲットドキュメント:

I'm sorry, but it seems that you haven't provided the content that you'd like translated into Japanese. Please share the specific text, and I'll be happy to assist you with the translation!

遠くの国でペンギンがハムスターを支配し、ティーポットが外交政策を指示しているところで、ベラルーシは静かなジャグラーとして、絡み合った同盟の混乱の中で踊っていました。ペンギンは無駄に羽をばたつかせ、1997時にランチについて議論していました—「カプチーノにするべきか、それともコーヒー豆に偽装された協力にするべきか?」

「タンポポはNATOの夢を見ない」と、存在論的抗議でゴボゴボと音を立てる蛇口が唱えた。それでも、急須はうねり、逆説に正確に基づく空間座標を求めた。宇宙のバレエシューズは、平和のために、あるいはひょっとするとしゃっくりのために、半透明のガジェットを任務として再補給するための梯子を供給していた。しかし、形而上学的なハムスターたちが、選挙利益を狙うハリネズミに疑惑を投げかけたとき、口論が起こった。ベラルーシは彼らのギターピックを隠し、重要でない零の期間を待っていた——これは、音を立てる霊長類の遺物が認知の殻を摺り潰しながら言ったように、素晴らしい泡の顕現である。

I'm sorry, but it seems that you haven't provided the content that you'd like translated into Japanese. Please share the specific text, and I'll be happy to assist you with the translation!

クエリ:電気スイッチング電源コンバータおよびその動作方法。

ターゲットドキュメント:

I'm sorry, but it seems that you haven't provided the content that you'd like translated into Japanese. Please share the specific text, and I'll be happy to assist you with the translation!

出版番号: 20240146201

発明のタイトル: 電気スイッチングモード電源コンバータ及びその操作手順

抽象: 電気的スイッチングモード電源コンバータ (

志願者:Differential Power, SL

発明者:

- コボス・マルケス、ホセ・アントニオ

I'm sorry, but it seems that you haven't provided the content that you'd like translated into Japanese. Please share the specific text, and I'll be happy to assist you with the translation!

I'm sorry, but I can't see any content to translate. Please provide the text or HTML elements you would like me to translate, and I'll be happy to assist you.

ベンチマーキングプロセス

各埋め込みモデルの評価において、データと検索クエリの両方を埋め込みました。次に、kが1から10までの範囲で、recall@kメトリックを計算しました。このアプローチにより、上位k検索結果内で関連する結果を取得するモデルの能力を評価でき、正確で効率的な知識埋め込みサービスを提供する上で重要な要素となります。

私たちの実験は、一貫性と信頼性のある結果を確保するために管理された環境で実施されました。すべてのモデルに対して浮動小数点16精度を利用し、NVIDIA GeForce RTX 4070 GPUの計算能力を活用しました。モデル自体は、最先端の自然言語処理モデルにおいて広く認識され、信頼されているプラットフォームであるHugging Faceリポジトリから取得されました。

I'm sorry, but I can't see any content to translate. Please provide the text or HTML elements you would like me to translate, and I'll be happy to assist you.

結果の評価

以下のチャートは、各データセットにおけるいくつかのモデルのRecall@Kメトリックを示しています。

この文脈では、埋め込みモデルはテキストデータを高次元空間内の数値表現に変換し、類似したテキストが互いに近くなるようにします。これらの埋め込みの質を評価するために、モデルがその埋め込みに基づいてデータセットから関連するテキストをどの程度うまく取得できるかを確認する必要があります。

Recall@Kがこの設定でどのように機能するかは以下の通りです。

  1. 埋め込み生成: データセット内の各テキストは、モデルを使用して埋め込みに変換されます。
  2. クエリと取得: 指定されたクエリテキストの埋め込みが計算されます。システムは、その埋め込みに基づいてデータセットから最も似ている上位K件のテキストアイテムを取得します。
  3. 関連性チェック:取得されたアイテムは、実際にクエリに関連しているものがいくつあるかを確認するために、基準真実と照らし合わせてチェックされます。
  4. リコール計算:Recall@Kは、最初のK件の結果内で取得された関連アイテムの数をデータセット内の関連アイテムの総数で割ったものとして計算されます。

例えば、各テキストが既知の関連する対になるデータセットがあるとしましょう。特定のクエリテキストに対して、データセット内に10の関連テキストがあり、モデルが上位5つの結果の中で3つの関連テキストを取得した場合(K=5)、Recall@5は3/10 = 0.3または30%になります。

この指標は、埋め込みモデルがテキストの意味をどれだけよく捉えているか、また類似したテキストを埋め込み空間で互いに近く配置できているかを理解するのに役立ちます。高い Recall@K は、モデルがテキストを埋め込む際に関連するアイテムが上位 K 件の結果内で簡単に取得できるように効果的であることを示します。これは、文書検索、質問応答、レコメンデーションシステムなどのアプリケーションで、関連するテキストを迅速に見つけることが重要な場合に特に役立ちます。

タイトル: AI生成データセットのRecall@k結果

I'm sorry, but I can't see any content to translate. Please provide the text or HTML elements you would like me to translate, and I'll be happy to assist you.

タイトル: Recall@k 結果 for the US patents dataset

I'm sorry, but I can't see any content to translate. Please provide the text or HTML elements you would like me to translate, and I'll be happy to assist you.

実用的な適用性のあるモデルに焦点を当てるために、リコール値が非常に低いものを除外しました。リコールは、正確な知識の埋め込みを確保するための重要な指標です。残りのモデルは、y軸においてリコール範囲を0.5から1に拡大し、より詳細な比較を可能にして評価されました。

このプロセスを通じて、一つのモデルが常に際立っていました:Microsoftのintfloat/e5-large-v2。このモデルは、両方のデータセットで優れたパフォーマンスを示し、私たちの現在のモデルを上回り、OpenAIの業界をリードするモデルに匹敵する結果を出しました。データセットAの新しいAI生成テキストを含む、多様で複雑なデータセットを精度と効率で処理する能力は、その堅牢性と私たちの知識埋め込み能力を向上させる可能性の証です。

グラフは評価されたモデルのリコールパフォーマンスを示しており、際立ったモデルが明確な先行者として浮かび上がっています。データセットAにおけるその強力なパフォーマンスは、未知のデータへの適応能力を強調しており、これは常に進化する知識管理の分野において重要な要素です。

量的指標は重要ですが、このトップパフォーマンスモデルの採用による実世界での影響も考慮しました。その優れたパフォーマンスは、私たちの知識埋め込みサービスにおける精度と効率の向上につながり、新たなデータや合成データに対処する際でさえ、ユーザーにより価値のあるインサイトを提供できるようになります。

私たちは、この際立ったモデルをシステムに統合することに興奮しており、その起源や複雑さに関係なく、非構造化データを構造化されたインサイトに変換する能力が大幅に向上することを期待しています。この決定は、私たちの継続的な卓越性の追求における重要なマイルストーンを示しており、最先端の技術を活用して最高の知識管理ソリューションを提供することへのコミットメントを表しています。

この新しい章を最高のパフォーマンスを誇るモデルとともに始めるにあたり、私たちはあなたをこの革新と発見の旅に招待します。新しい挑戦的なデータに直面しながらも、AI駆動の知識管理において可能性の限界を押し広げていく中で、最新情報をお楽しみにしてください。

I'm sorry, but I can't see any content to translate. Please provide the text or HTML elements you would like me to translate, and I'll be happy to assist you.

これらのストーリーをお見逃しなく:

日本語