当前位置:首页 > 文章中心 > 正文内容

使用 Gemini 2.0 Flash 对数百万个文档进行摄取和 RAG

dgx6662周前 (07-11)文章中心8

在大模型盛行的时代,能高效处理海量文档的 RAG(检索增强生成)方案正成为企业的刚需。但现实是:高延迟、高成本、低吞吐,拦住了大多数人。而 Google 最新发布的 Gemini 2.0 Flash,用一次性能的“降维打击”,让 PDF 转文本、并行摄取、快速问答不再遥不可及。

首先将每个 PDF 页面转换为图像,然后将它们发送以进行 OCR,只是为将原始文本转换为可用的 HTML 或 Markdown。接下来,您仔细检测并重新构建每个表,将内容切成块以进行语义检索,最后将它们全部插入到矢量数据库中,整个成本是非常高。

Google 的 Gemini 2.0 Flash就可以简化整个过程。

在一个步骤中捆绑 OCR 和分块,而成本只是其中的一小部分。这篇文章恰恰探讨这种可能性。我将展示 Gemini 2.0 Flash 如何一次性将 PDF 转换为分块的、可用于 Markdown 的文本,让您摆脱冗余的多步骤。然后,我们将这些数据存储在可扩展矢量数据库,用于快速矢量搜索。

本指南介绍如何:

  • 使用 Gemini 2.0 Flash将 PDF 页面直接转换为分块文本;
  • 将块存储在矢量数据库,用于快速搜索;
  • 在 RAG 工作流程中将它们全部联系在一起;

这是目前的模型价格

如果您不需要原始 PDF 中的边界框,这种方法比旧的 OCR 管道简单得多,成本也低得多。

传统的 PDF 摄取问题

为什么 PDF 摄取如此困难?

  1. 复杂布局 :多列文本、脚注、侧边栏、图像或扫描的表单。
  2. 表格提取 :传统的 OCR 工具通常会将表格展平为杂乱的文本。
  3. 高成本 : 使用 GPT-4o 或其他大型 LLM 会很快变得昂贵,尤其是在您处理数百万个页面时。
  4. 多种工具 :您可以运行 Tesseract for OCR、用于表检测的布局模型、用于 RAG 的单独分块策略等。

许多团队最终会得到一个脆弱且昂贵的巨大管道。新方法是:“只需将 PDF 页面作为图像显示给多模态 LLM,提示它分块,然后看着奇迹发生。”

这就是 Gemini 2.0 Flash的用武之地。

为什么选择 Gemini 2.0 Flash?

成本 :~6,000 页/美元(使用批量调用和最少的输出令牌)。这很容易比许多其他解决方案(GPT-4、专门的 OCR 供应商等)便宜 5-30 倍。

准确性 :标准文本的保真度令人惊讶。大多数错误是微小的结构差异,尤其是对于表格。

最大的缺失部分是边界框数据。如果您需要将像素完美的叠加层重新覆盖到 PDF 上,Gemini 的边界框生成仍然远非准确。但是,如果您主要关心是基于文本的检索或摘要,那么它更便宜、更快、更容易。

端到端架构

分步代码

1)安装依赖并创建基本表

!apt-get update

!apt-get install -y poppler-utils

!pip install -q google-generativeai kdbai-client sentence-transformers pdf2image

import os

import kdbai_client as kdbai

from sentence_transformers import SentenceTransformer

# start session with KDB.AI Server

session = kdbai.Session(endpoint=”http://localhost:8082″)

db = session.database(‘default’)

print(“Connected to KDB.AI:”, db)

您可以注册矢量数据库。免费 AI 服务器在这里:
https://trykdb.kx.com/kdbai/signup/

2)创建 Vector Table

# Define KDB.AI table schema

VECTOR_DIM = 384 # we’ll use all-MiniLM-L6-v2 for embeddings

schema = [

{“name”: “id”, “type”: “str”},

{“name”: “text”, “type”: “str”},

{“name”: “vectors”, “type”: “float32s”}

] # Build a simple L2 distance index

index = [

{ “name”: “flat_index”,

“type”: “flat”,

“column”: “vectors”,

“params”: {“dims”: VECTOR_DIM, “metric”: “L2”}

} ]

table_name = “pdf_chunks”

try:

db.table(table_name).drop

except kdbai.KDBAIException:

pass

table = db.create_table(table_name, schema=schema, indexes=index)

print(f”Table ‘{table_name}’ created.”)

3)将 PDF 页面转换为图像

# Convert PDF to images

import requests

from pdf2image import convert_from_bytes

import base64

import io

pdf_url = “https://arxiv.org/pdf/2404.08865″ # example PDF

resp = requests.get(pdf_url)

pdf_data = resp.content

pages = convert_from_bytes(pdf_data)

print(f”Converted {len(pages)} PDF pages to images.”)

# We’ll encode the images as base64 for easy sending to Gemini

images_b64 = {}

for i, page in enumerate(pages, start=1):

buffer = io.BytesIO

page.save(buffer, format=”PNG”)

image_data = buffer.getvalue

b64_str = base64.b64encode(image_data).decode(“utf-8”)

images_b64[i] = b64_str

4)调用 Gemini 2.0 Flash 进行 OCR + 分块

# Configure Gemini & define chunking prompt

import google.generativeai as genai

GOOGLE_API_KEY = “YOUR_GOOGLE_API_KEY”

genai.configure(api_key=GOOGLE_API_KEY)

model = genai.GenerativeModel(model_name=”gemini-2.0-flash”)

print(“Gemini model loaded:”, model)

CHUNKING_PROMPT = “””\

OCR the following page into Markdown. Tables should be formatted as HTML.

Do not surround your output with triple backticks.

Chunk the document into sections of roughly 250 – 1000 words.

Surround each chunk with <chunk> and </chunk> tags.

Preserve as much content as possible, including headings, tables, etc.

5)使用一个 prompt 处理每个页面

# OCR + chunking function

import re

def process_page(page_num, image_b64):

# We’ll create the message payload:

payload = [

{ “inline_data”: {“data”: image_b64, “mime_type”: “image/png”}

},

{ “text”: CHUNKING_PROMPT

} ]

try:

resp = model.generate_content(payload)

text_out = resp.text

except Exception as e:

print(f”Error processing page {page_num}: {e}”)

return

# parse <chunk> blocks

chunks = re.findall(r”<chunk>(.*?)</chunk>”, text_out, re.DOTALL)

if not chunks:

# fallback if model doesn’t produce chunk tags

chunks = text_out.split(“\n\n”)

results =

for idx, chunk_txt in enumerate(chunks):

# store ID, chunk text

results.append({

“id”: f”page_{page_num}_chunk_{idx}”,

“text”: chunk_txt.strip

})

return results

all_chunks =

for i, b64_str in images_b64.items:

page_chunks = process_page(i, b64_str)

all_chunks.extend(page_chunks)

print(f”Total extracted chunks: {len(all_chunks)}”)

6)在矢量数据库中嵌入块和存储

# Embedding & Insertion

embed_model = SentenceTransformer(“all-MiniLM-L6-v2”)

chunk_texts = [ch[“text”] for ch in all_chunks]

embeddings = embed_model.encode(chunk_texts)

embeddings = embeddings.astype(“float32”)

import pandas as pd

row_list =

for idx, ch_data in enumerate(all_chunks):

row_list.append({

“id”: ch_data[“id”],

“text”: ch_data[“text”],

“vectors”: embeddings[idx].tolist

})

df = pd.DataFrame(row_list)

table.insert(df)

print(f”Inserted {len(df)} chunks into ‘{table_name}’.”)

7)查询和构建 RAG 流程

相似度搜索

# Vector query for RAG

user_query = “How does this paper handle multi-column text?”

qvec = embed_model.encode(user_query).astype(“float32”)

search_results = table.search(vectors={“flat_index”: [qvec]}, n=3)

retrieved_chunks = search_results[0][“text”].tolist

context_for_llm = “\n\n”.join(retrieved_chunks)

print(“Retrieved chunks:\n”, context_for_llm)

8)最终生成

# SNIPPET 8: RAG generation

final_prompt = f”””Use the following context to answer the question:

Context:

{context_for_llm}

Question: {user_query}

Answer:

“””

resp = model.generate_content(final_prompt)

print(“\n=== Gemini’s final answer ===”)

print(resp.text)

最后的思考

  1. 用户反馈 :真实用户已经用 Gemini 取代了专门的 OCR 供应商进行 PDF 摄取,从而节省了时间和成本
  2. 当边界框很重要时 :如果您必须精确跟踪 PDF 上每个块的位置,您将需要一种混合方法。
  3. 可扩展性 :制作数百万个页面?确保批量调用和限制令牌。这就是您达到 ~6,000 页/美元的最佳位置的方式。单页调用或大型输出的成本更高。
  4. 简单性:您可以跳过六个微服务或 GPU 管道。对许多人来说,仅此一项就是一种巨大的解脱。

本文由 @来学习一下 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务

扫描二维码推送至手机访问。

版权声明:本文由第六芝士网发布,如需转载请注明出处。

本文链接:http://www.dgx666.com/post/2996.html

分享给朋友:

“使用 Gemini 2.0 Flash 对数百万个文档进行摄取和 RAG” 的相关文章

AMD发布芯片组驱动7.01.08.129,优化双CCD锐龙7000/9000 CPU性能

IT之家 1 月 14 日消息,华硕昨日开始为旗下 X870 / X670 / B650 / B850 系列主板推出了基于 AGESA 1.2.0.3 的新版 BIOS,这应该是第一家提供新版固件更新的主板厂商,主要是解决了未知设备问题,其他更新内容有待挖掘。除此之外,与之一同发布的还有新版芯片组驱...

中文版AutoCAD 2014机械图形设计

《中文版AutoCAD 2014机械图形设计》介绍了AutoCAD 2014在机械图形绘制方面的应用,内容丰富翔实,具有很高的参考价值。《中文版AutoCAD 2014机械图形设计》分基础篇和实践篇两部分。基础篇介绍了AutoCAD 2014的基本概念与基本操作。其中包括:绘制与编辑二维图形、图层设...

魔兽争霸官方对战平台520活动现已上线

520甜蜜相伴,魔兽争霸官方对战平台专属福利倾情放送!5月14日-5月24日,登录平台就送专属活动底纹,还有全新双子座动态头像超值上线。 爱与恨的双子星,超值礼包限时上线 5月20日-5月24日,双子座超值礼包登场! 双子座——阿尔萨斯8折礼包:“双子座”动态头像×永久+“双子座”动态底纹×...

CAD2007怎么安装?CAD2007中文版的安装教程

CAD2007是很多从事建筑设计,尤其是结构设计最经常使用的一款专业绘图软件。不少网友下载了CAD2007安装包之后,却不会安装CAD2007,因为他下载的CAD2007的英文版,而一些网友下载了CAD2007中文版的网友,却因为不是在NET2.0以上的安装环境而安装失败。今天,小编就给大家演示一下...

《蝙蝠侠》DirectX Error错误怎么办 DirectX Error错误解决方法

有玩家玩《蝙蝠侠》的时候遇到DirectX Error错误怎么办呢,下面为大家介绍《蝙蝠侠》DirectX Error错误解决方法,希望能帮到大家。由于《蝙蝠侠:剧情版》游戏本身问题,Win 7 SP1没安装KB2670838的电脑在启动《蝙蝠侠:剧情版》时会提示DirectX Error错误,从而...

【效率翻倍!2025年上班族必备的桌面便签神器推荐】

在快节奏的办公生活中,一款好用的桌面便签软件能让你事半功倍!无论是记录灵感、管理待办,还是设置提醒,这些工具都能让工作井井有条。 ### 1. **桌面记事本软件(华军软件园/下载吧)** - **特点**:支持快速记录(Shift+Insert快捷键)、全文搜索、日历管理、自动保存及备份为ZIP...