Google a transformat RAG in ceva foarte simplu

de | noiembrie 13, 2025

Dacă ați încercat vreodată să vă construiți propriul sistem RAG (Retrieval-Augmented Generation), probabil înțelegeți provocarea — gestionarea embedding-urilor, bazelor de date vectoriale, împărțirea corectă a textului în bucăți și asigurarea că totul interacționează cu modelul dvs. fără a depăși bugetul.

Ei bine, Google tocmai a făcut ca toată această încurcătură să dispară.

Ei au introdus discret un nou Instrument de File search în cadrul API-ului Gemini, care se ocupă de toată munca grea RAG pentru dvs. Trebuie doar să încărcați fișierele, să puneți întrebarea, iar instrumentul se ocupă de restul.

La bază, Instrumentul de File search permite lui Gemini să „înțeleagă” datele tale. Poți încărca fișiere PDF, DOCX, text, JSON sau chiar fișiere de cod. Când îi pui o întrebare lui Gemini, acesta nu ghicește pur și simplu — examinează fișierele încărcate, găsește părțile relevante și le folosește pentru a răspunde.

Este ca și cum ai conecta creierul tău personal direct la Gemini. Fără o bază de date vectorială separată (aka Pinecone), fără un pipeline de recuperare, nimic de gestionat. Doar fisiere urcate.

Si este ieftin, chiar foarte ieftin. Aceasta este partea care m-a surprins. Nu plătești pentru interogări sau stocare; plătești o singură dată — atunci când indexezi fișierele tale.

Crearea embedding-urilor costă 0,15 USD per 1 milion de tokeni, folosind modelul gemini-embedding-001. Este o sumă mică comparativ cu construirea propriei tale pipeline folosind instrumente precum Pinecone sau Weaviate.

După aceea, poți interoga liber acele fișiere de câte ori dorești.

Cum functioneaza in realitate ?

Căutarea în fișiere simplifică RAG prin împărțirea automată a fișierelor în bucăți, generarea embedding-urilor, stocarea și recuperarea acestora, precum și injectarea contextului în prompturile tale Gemini.

Totul este gestionat în cadrul aceleiași apelări API generateContent pe care o folosești deja in mod curent.

Când faci o interogare, se realizează în fundal o căutare vectorială folosind cel mai recent model Gemini Embedding. Astfel, înțelege sensul, nu doar cuvintele cheie.

Mai mult, răspunsurile Gemini includ și citări — specifică explicit din ce fișier și secțiune provine informația. Poți face clic pentru a verifica sursa. Nu mai trebuie să ghicești dacă modelul tău a generat ceva eronat.

Exemplu de cod Python

from google import genai
from google.genai import types
import time

client = genai.Client()
store = client.file_search_stores.create()
upload_op = client.file_search_stores.upload_to_file_search_store(
    file_search_store_name=store.name,
    file='path/to/your/document.pdf'
)
while not upload_op.done:
    time.sleep(5)
    upload_op = client.operations.get(upload_op)
response = client.models.generate_content(
    model='gemini-2.5-flash',
    contents='Sumarizeaza documentul.',
    config=types.GenerateContentConfig(
        tools=[types.Tool(
            file_search=types.FileSearch(
                file_search_store_names=[store.name]
            )
        )]
    )
)
print(response.text)
grounding = response.candidates[0].grounding_metadata
sources = {c.retrieved_context.title for c in grounding.grounding_chunks}
print('Sources:', *sources)

Asta este tot. Incarci fisierul, pui intrebarea, primesti raspunsul si sursa.

Fiecare dezvoltator AI se confruntă cu aceeași problemă — modelele AI sunt impresionante, dar nu au acces la datele interne ale companiei tale.

Instrumentul File Search schimbă această situație, permițând lui Gemini să analizeze conținutul tău fără o configurare complexă de recuperare.

Dacă creezi orice fel de aplicație care necesită informații actuale sau specifice unui domeniu — boți de suport, instrumente interne, întrebări și răspunsuri pe documente — aceast instrument este o schimbare majoră.