Przejdź do głównej zawartości

Przykłady od początku do końca

Ta dokumentacja została przetłumaczona automatycznie i może zawierać błędy. Nie wahaj się otworzyć Pull Request, aby zaproponować zmiany.

W repozytorium zawieramy kilka przykładów od początku do końca, korzystając z LlamaIndex.TS.

Sprawdź poniższe przykłady lub wypróbuj je i uzupełnij w kilka minut za pomocą interaktywnych samouczków Github Codespace udostępnionych przez Dev-Docs tutaj:

Silnik czatu

Przeczytaj plik i porozmawiaj o nim z LLM.

Indeks wektorowy

Utwórz indeks wektorowy i zapytaj go. Indeks wektorowy będzie używał osadzeń do pobrania k najbardziej istotnych węzłów. Domyślnie, k wynosi 2.

"

Indeks podsumowania

Utwórz indeks listy i zapytaj go. Ten przykład wykorzystuje również LLMRetriever, który używa LLM do wyboru najlepszych węzłów do użycia podczas generowania odpowiedzi.

"

Zapisz / Wczytaj indeks

Utwórz i wczytaj indeks wektorowy. Automatyczne zapisywanie na dysku w LlamaIndex.TS następuje automatycznie po utworzeniu obiektu kontekstu przechowywania.

"

Niestandardowy indeks wektorowy

Utwórz indeks wektorowy i zapytaj go, konfigurując jednocześnie LLM, ServiceContext i similarity_top_k.

"

OpenAI LLM

Utwórz OpenAI LLM i użyj go bezpośrednio do czatu.

"

Llama2 DeuceLLM

Utwórz Llama-2 LLM i użyj go bezpośrednio do czatu.

"

SubQuestionQueryEngine

Wykorzystuje SubQuestionQueryEngine, który dzieli złożone zapytania na wiele pytań, a następnie agreguje odpowiedzi na wszystkie podpytania.

"

Moduły na niskim poziomie

Ten przykład wykorzystuje kilka komponentów na niskim poziomie, co eliminuje potrzebę posiadania rzeczywistego silnika zapytań. Te komponenty mogą być używane w dowolnym miejscu, w dowolnej aplikacji, lub dostosowane i podklasowane, aby spełnić Twoje własne potrzeby.

"