Direkt zum Inhalt

Wie man einen Chatbot mit Snowflake Cortex AI baut (Schritt-für-Schritt-Anleitung)

Lerne, wie du mit Snowflake Cortex AI einen Chatbot entwickelst. Schritt-für-Schritt-Anleitung zum Vorbereiten von Daten, zum Benutzen von Cortex Search und zum Bereitstellen mit Streamlit.
Aktualisierte 25. Sept. 2025  · 12 Min. Lesezeit

Snowflake's Cortex AI bringt starke KI-Funktionen direkt in deine Snowflake-Umgebung. Zum Beispiel können wir mit Cortex' Zugang zu den besten großen Sprachmodellen (LLMs) Tools wie KI-Chatbots entwickeln, die interne Unternehmensdaten nutzen, ohne die Sicherheit sensibler Daten zu gefährden. 

Diese Integrationen haben dazu geführt, dass man von den üblichen regelbasierten Chats und Automatisierungen zu flexibleren KI-gestützten Chats übergegangen ist, die die Eingaben der Nutzer besser verstehen und so ausführlichere und vollständigere Antworten geben können.

In diesem Tutorial zeig ich dir die wichtigsten Schritte, wie du mit Snowflake Cortex einen Chatbot erstellst. Du lernst, wie du Daten vorbereitest, Cortex Search einrichtest, Document AI für unstrukturierte Daten nutzt, eine Chatbot-Schnittstelle in Streamlit erstellst, und ich gebe dir Tipps, wie du das Ganze in externe Anwendungen integrieren kannst. Am Ende hast du sowohl die praktischen Fähigkeiten als auch das konzeptionelle Verständnis, die du brauchst, um dialogorientierte KI auf Snowflake zu entwickeln.

Wenn du Snowflake noch nicht kennst, empfehle ich dir, den Snowflake Foundations Skill Track zu folgen, um dich schnell zurechtzufinden.

Was ist Snowflake Cortex?

Im Grunde bringt Snowflake Cortex KI- und LLM-basierte Dienste ins Snowflake-Ökosystem. In diesem Tutorial geht's darum, wie du Cortex mit deinen Snowflake-Daten verbindest, um eine einfache Streamlit-Chatbot-App zu erstellen. Dabei nutzen wir den Suchdienst und die Dokument-KI von Cortex, um Dokumentdateien zu analysieren. So können wir über das Retrieval-Augmented-Generation-Modell von Cortex zusätzlichen Kontext für bestehende LLM-Modelle bereitstellen.

In diesem Tutorial geht's um:

  • Richte deine gesamte Snowflake-Umgebung ein, um einen Cortex Search-Chatbot zu erstellen.
  • Wir nutzen Cortex LLM-Funktionen und Document AI, um Infos aus Dokumenten rauszuholen.
  • Entwickle einen Chatbot und eine Analyse-App in Streamlit in Snowflake
  • Kostenstruktur und Überlegungen zur Nutzung von Cortex

Der Vorteil von Cortex ist sein nativer hybrider Ansatz für Vektor-, Schlüsselwort- und semantisches Reranking sowie seine RAG-basierte Antwortgenerierung, die die Genauigkeit und Spezifität verbessert. 

Mit Streamlit in Snowflake kannst du Chatbots und Analyse-Apps erstellen. Dabei nutzt du die Flexibilität der Python-Entwicklung und achtest gleichzeitig auf Datensicherheit und Compliance-Vorschriften, indem du sensible Daten in deiner sicheren Snowflake-Umgebung behältst. 

Wenn du dir ein Bild von den Möglichkeiten von Snowflake Cortex AI machen möchtest, schau dir dieses Tutorial zur Verwendung von Cortex AI für grundlegende NLP-Aufgaben an. Tutorial zur Verwendung von Cortex AI für grundlegende NLP-Aufgaben wie Zusammenfassungen und Stimmungsanalysen.

Was du brauchen solltest

Bevor wir loslegen, richten wir dein Snowflake-Konto ein. Für dieses Konto brauchst du die folgenden Berechtigungen:

  • Berechtigungen zum Erstellen von Lagern und die Berechtigung „ USAGE
  • Datenbankberechtigungen: USAGE
  • Schema-Berechtigungen: USAGE, CREATE STREAMLIT, CREATE STAGE, CREATE CORTEX SEARCH SERVICE oder OWNERSHIP
  • Die Möglichkeit, Document AI mit den richtigen Berechtigungen auf Kontoebene zu nutzen. Meistens wirst du die integrierten Rollen von Snowflake nutzen (z. B. ACCOUNTADMIN “ oder SYSADMIN “) oder eine benutzerdefinierte Rolle mit:
    • USAGE in der Datenbank und im Schema
    • CREATE CORTEX SEARCH SERVICE
    • OPERATE auf dem Suchdienstobjekt, sobald es erstellt ist
  • Für Cortex brauchst du normalerweise die Rolle „ CORTEX_USER “ zusammen mit Berechtigungen auf Objektebene (USAGE, OPERATE), um mit Diensten zu interagieren.

Im Idealfall kennst du dich ein bisschen mit SQL, Python und grundlegenden KI-Konzepten aus. Du solltest SQL verstehen, um dich in der Snowflake-Umgebung und den Daten zurechtzufinden. Du solltest dich mit Python auskennen, um die Streamlit-App zu erstellen. Ein grundlegendes Verständnis der KI-Konzepte hilft uns, die Komponenten unseres Cortex-Suchdienstes besser zu verstehen.

Bei den Tools konzentrieren wir uns auf Snowsight von Snowflake, also ihren Webbrowser. Wenn du das lokal erstellen willst, brauchst du deine eigene IDE/deinen eigenen Texteditor. 

Wir versuchen zwar, ein paar Datenbeispiele zur Verfügung zu stellen, aber am besten wäre es, wenn du einen Testkorpus und einen Datensatz hättest, mit denen du arbeiten möchtest. Wenn du keine hast, empfehle ich dir die Protokolle der Sitzungen des Offenmarktausschusses der US-Notenbank als Tutorial (Quelle: Snowflake): Beispiel für ein FOMC-Protokoll.

Wie man einen Chatbot in Snowflake Cortex erstellt

Okay, dann fangen wir mal an zu bauen! Einige dieser Anweisungen sind vielleicht etwas allgemeiner gehalten, damit wir eine Vielzahl von Optionen abdecken können.

Schritt 1: Richte die Snowflake-Datenbank, das Schema und das Warehouse ein

Zuerst richten wir die nötige Umgebung für unser Chatbot-Projekt ein.

-- Create a dedicated warehouse
CREATE OR REPLACE WAREHOUSE cortex_wh 
  WITH WAREHOUSE_SIZE = 'XSMALL' 
  AUTO_SUSPEND = 60 
  AUTO_RESUME = TRUE;

-- Create a database and stage
CREATE OR REPLACE DATABASE cortex_chatbot_db;
CREATE OR REPLACE STAGE cortex_chatbot_db.public.chatbot_stage;

-- Switch context
USE DATABASE cortex_chatbot_db;
USE WAREHOUSE cortex_wh;

So wird sichergestellt, dass alle Ressourcen isoliert sind und die Kosten im Griff bleiben.

Schritt 2: Daten laden und vorbereiten

Dein Chatbot braucht Daten, um auf Fragen zu antworten. Das kann sein:

  • Strukturierte Daten: Kundeninfos, Transaktionsprotokolle, Produktkataloge.
  • Unstrukturierte Daten: PDFs, FAQs, Richtlinien, Wissensdatenbanken.

Wenn du mehr Infos zur Datenerfassung und dazu brauchst, wie wir Daten in Snowflake einspeisen, schau dir diesen Leitfaden zur Datenerfassung.

Beispiel: Vorbereiten und Laden einer CSV-Datei.

-- Upload data (done via Snowsight UI or SnowSQL)
-- Example: product_faq.csv

-- Load into a table
CREATE OR REPLACE TABLE cortex_chatbot_db.public.chatbot_stage.product_faq (
  question STRING,
  answer STRING
);

COPY INTO product_faq
FROM @chatbot_stage/product_faq.csv
FILE_FORMAT = (TYPE = CSV FIELD_OPTIONALLY_ENCLOSED_BY='"');

Unstrukturierte Daten (z. B. PDFs) kannst du mit Cortex Document AI bearbeiten. Im nächsten Schritt schauen wir uns an, wie man mit Cortex Document AI Daten aus unstrukturierten Datenquellen herausholt.

Wir wollen unsere strukturierten und unstrukturierten Daten in Blöcke aufteilen und sicherstellen, dass wir bei Bedarf Metadaten hinzufügen, damit sie für das RAG effizienter sind.

Schritt 3: Dokument-KI-Training und Dokument-Parsing

Schauen wir uns mal an, wie man mit Document AI ein Modell baut, das genau auf das Parsen von Dokumenten abgestimmt ist. Hey, das ist optional, und ich empfehle dir, die Standardmodelle von Snowflake zum Parsen auszuprobieren, weil die produktionsreif sind und OCR, Layoutextraktion und Tabelle unterstützen. Du kannst benutzerdefinierte Modelle derzeit nicht direkt in Cortex Document AI „trainieren“, aber du kannst Extraktionsmodi (z. B. Entitätsextraktion, Extraktion aus Tabellen) so einrichten, dass sie zu deinen Daten passen.

Fang einfach mit dem Standard-Parser an und nimm nur dann fortgeschrittenere Einstellungen vor, wenn deine Dokumente kompliziert oder unregelmäßig formatiert sind.

Öffne in Snowsight das Navigationsmenü und geh zu „KI & ML”. Wähl unsere „ cortex_wh “ aus und klick dann auf „Build“.  Von dort aus wählen wir „Erstellen“. 

Sobald du den Build erstellt hast, laden wir unsere Dokumente in den Build hoch. Sobald die Verarbeitung fertig ist, können wir die Daten extrahieren, entweder mit Entitätsextraktion oder Extraktion aus Tabelle. Mit der Entitätsextraktion kannst du Fragen zu deinem Dokument stellen, um Daten zu bekommen. Die Extraktion aus Tabellen analysiert Daten anhand von Feldern, die du in deinem Dokument festgelegt hast. 

Sobald das Modell erstellt ist, wollen wir seine Genauigkeit checken und es dann nach Bedarf trainieren. Durch das Training wird das Modell genau auf die Struktur deines Dokuments abgestimmt. Jetzt können wir dieses Modell oder unser Standardmodell zum Parsen von Dokumenten verwenden. Vorerst bleiben wir beim Standard-KI-Parser von Snowflake.

CREATE OR REPLACE TABLE cortex_chatbot_db.public.chatbot_stage.doc_data AS --create the table
SELECT
    RELATIVE_PATH,
    TO_VARCHAR (
        SNOWFLAKE.CORTEX.PARSE_DOCUMENT ( --using default cortex parser
            '@cortex_chatbot.public.chatbot_stage',
            RELATIVE_PATH,
            {'mode': 'LAYOUT'} ):content
        ) AS EXTRACTED_LAYOUT
FROM
    DIRECTORY('@cortex_chatbot.public.chatbot_stage') --pull the files from the stage
WHERE
    RELATIVE_PATH LIKE '%.pdf'; --specifically just PDFs

Jetzt sind unsere Daten in einer Tabelle und können weiterverarbeitet werden.

Schritt 4: Datentransformation und Merkmalsextraktion

Um Daten für Chatbot-Interaktionen vorzubereiten, müssen Dokumente in Teile zerlegt und mit Metadaten angereichert werden. Durch Chunking wird die Suche in Cortex genauer.

	CREATE OR REPLACE TABLE cortex_chatbot_db.public.chatbot_stage.doc_chunks AS
	SELECT
	    relative_path,
	    BUILD_SCOPED_FILE_URL(@cortex_chatbot.public.chatbot_stage, relative_path) AS file_url,
	    (
	        relative_path || ':\n'
	        || coalesce('Header 1: ' || c.value['headers']['header_1'] || '\n', '')
	        || coalesce('Header 2: ' || c.value['headers']['header_2'] || '\n', '')
	        || c.value['chunk']
	    ) AS chunk,
	    'English' AS language
	FROM
	cortex_chatbot_db.public.chatbot_stage.doc_data
	    LATERAL FLATTEN(SNOWFLAKE.CORTEX.SPLIT_TEXT_MARKDOWN_HEADER(
	        EXTRACTED_LAYOUT,
	        OBJECT_CONSTRUCT('#', 'header_1', '##', 'header_2'),
	        2000, -- chunks of 2000 characters
	        300 -- 300 character overlap
	    ))  c;

Also, dieser SQL-Befehl macht echt viel, also lass mich das mal zusammenfassen. Es nimmt jede Datei und teilt den Text in Blöcke von 2000 Zeichen auf. 

Das Aufteilen in kleinere Teile macht die Suche einfacher. Dann fügt es den Daten im Chunk ein paar Header-Infos (wie Titel) hinzu, damit das Modell weiß, woher diese Daten kommen.

Dadurch werden deine Daten durchsuchbar und können für die abrufgestützte Generierung (RAG) genutzt werden.

Schritt 5: Cortex Search oder Agent erstellen und einrichten

Lass uns unseren Cortex Search Agent erstellen, der der Hauptdienst ist, der die Chunks durchsucht und den Kontext für eine Antwort abruft.

CREATE OR REPLACE CORTEX SEARCH SERVICE cortex_chatbot_db.public.chatbot_stage.cortex_serv
    ON chunk
    ATTRIBUTES category
    WAREHOUSE = cortex_wh
    TARGET_LAG = '1 hour'
    AS (
    SELECT
        chunk,
        relative_path,
        file_url,
        category
    FROM cortex_chatbot_db.public.chatbot_stage.doc_chunks
    );

Damit wird ein erster Dienst erstellt, der auch das Feld „ attributes “ definiert, das die Spalten auswählt, die du zum Filtern der Suchergebnisse verwenden möchtest. Hier hab ich „Kategorie“ ausgewählt, damit wir theoretisch nach verschiedenen Produktkategorien filtern können. Dafür hab ich die Spalten „ chunk “ ausgesucht, die unseren in Blöcke aufgeteilten Text haben sollen.

Cortex Search nutzt standardmäßig eine Mischung aus Vektor- und Stichwortsuche, was die Genauigkeit des Chatbots verbessert. Damit können wir mit einem semantischen Modell mehr Kontext hinzufügen. Wenn du bestimmte Formulierungen oder technische Abkürzungen erwartest, kannst du mit dem Cortex Analyst Semantic Model Generator eine YAML-Datei für ein semantisches Modell einrichten. So kannst du dem Modell Kontext und Synonyme geben, damit es versteht, dass „CUST“ auch „Kunde“ bedeuten kann. 

Das ermöglicht RAG-Workflows, bei denen der Chatbot erst mal den passenden Kontext checkt, bevor er Antworten macht.

Schritt 6: Erstelle die Chatbot-App mit Streamlit

Jetzt bauen wir mit Streamlit ein super einfaches Chatbot-Frontend in Snowflake. Du solltest Snowsight nutzen, um die App „Streamlit in Snowflake” zu finden und damit deine Chatbot-Anwendung zu erstellen. Hier wird Snowpark benutzt, um sich mit deinem Snowflake zu verbinden. 

Wenn du Infos zum Erstellen von Chatbots im Allgemeinen suchst, empfehle ich dir, zuerst diesen Kurs zum Thema Erstellung von Chatbots in Python.

Zuerst lassen wir den Nutzer über Session.builder eine Verbindung zu Snowflake herstellen. Dann geben wir eine bestimmte Eingabe als Abfrage an SNOWFLAKE.CORTEX.SEARCH 

import streamlit as st
import snowflake.connector
from snowflake.snowpark import Session

# Connect to Snowflake
session = Session.builder.configs({
    "account": "<account_id>",
    "user": "<username>",
    "password": "<password>",
    "role": "SYSADMIN",
    "warehouse": "CORTEX_WH",
    "database": "CORTEX_CHATBOT",
    "schema": "PUBLIC"
}).create()

st.title("Snowflake Cortex Chatbot")

user_input = st.text_input("Ask me a question:")

if user_input:
    # Query Cortex Search
    result = session.sql(f"""
        SELECT PARSE_JSON(
SNOWFLAKE.CORTEX.SEARCH(
            chatbot_serv',
                 '{
         "query": "{user_input}",
         "columns":[
            "col1",
            "col2"
         ],
         "filter": {"@eq": {"col1": "filter value"} }
      }'
)
)[‘results’] AS results
    """).collect()

    st.write("**Chatbot:**", result[0]['RESPONSE'])

Dieser einfache Chatbot holt sich relevante Infos aus dem Cortex Search-Index und gibt Antworten in Echtzeit. Man kann auch einen Chatbot für mehrere Runden (Konversation) machen, indem man die Chat-Historie der Sitzung im Speicher speichert. Das kannst du direkt in Streamlit mit dem vorhandenen Suchdienst machen.

Schritt 7: Implementierung über REST-API-Endpunkte

Um den Chatbot in externe Apps (z. B. Websites, Slack-Bots) einzubauen, nutze die Snowflake REST API. Normalerweise sieht die URL so aus: https:///api/v2/databases//schemas//cortex-search-services/:query.

Diese APIs brauchen aus Sicherheitsgründen eine Authentifizierung, was heißt, dass sie nur für Leute zugänglich sind, die Zugriff auf deine Snowflake-Umgebung haben. Mit diesem API-First-Ansatz kann man Chatbot-Funktionen flexibler und für ein breiteres Publikum einbinden. 

Ein Anwendungsfall dafür wäre, ein internes Tool zu entwickeln, das auf einem Webserver laufen kann und mit dem Leute Fragen zu Dokumenten wie Quartalsberichten oder Besprechungsnotizen stellen können. Für diese Integrationen müsste man ein paar Tools entwickeln, die API-Anfragen machen können.

Schritt 8: Testen und Validieren

Bevor du den Chatbot groß rausbringst, solltest du ihn auf Folgendes checken:

  • Genauigkeit – Findet es die richtigen Antworten?
  • Geschwindigkeit – Ist die Latenz okay?
  • Benutzerfreundlichkeit – Ist die Benutzeroberfläche einfach zu bedienen?

Du kannst Abfragen protokollieren und die Ergebnisse mit bekannten Referenzwerten vergleichen, um einen Benchmark zu erstellen. Es ist üblich, eine Reihe von Fragen mit vorgegebenen Antworten zu haben und andere Modelle zu nutzen, um die Genauigkeit zu vergleichen. 

Schritt 9: Aufräumen (optional)

Um die Kosten im Griff zu behalten und die Kontrolle zu behalten, solltest du nicht genutzte Ressourcen loswerden.

	DROP WAREHOUSE IF EXISTS cortex_wh;
	DROP DATABASE IF EXISTS cortex_chatbot;
	DROP STAGE IF EXISTS chatbot_stage;

Weitere Konzepte und bewährte Verfahren

Lass uns ein bisschen Kontext zur Funktion unseres Chatbots und ein paar bewährte Vorgehensweisen hinzufügen.

Retrieval Augmented Generation (RAG) in Snowflake Cortex

RAG ist eine Technik, die viele große Sprachmodelle nutzen, um ihre Originaldaten mit externem Wissen zu verbessern.

Snowflake Cortex fügt deine Unternehmensdaten zum Kontext deines Chatbots hinzu und kann so Antworten mit dem zusätzlichen Kontext geben. Durch die Kombination von Vektor- und Stichwortsuche kann es eine Eingabe mit Kontextdaten analysieren und nutzt semantisches Reranking, um die relevantesten Dokumente auszuwählen und eine kontextbezogene Antwort zu liefern. 

Das heißt auch, dass die Implementierung von RAG durch eine einzige Cortex-Suchmaschine einfacher wird, statt dass der Nutzer Vektoren, Ähnlichkeitsfunktionen und Einbettungen manuell erstellen muss. Die Leistungsfähigkeit von RAG ermöglicht es uns, Dinge wie Chatbots für technische Dokumentationen.

Prompt-Engineering für Snowflake-Chatbots

Prompt Engineering ist wichtig, damit ein Chatbot die richtigen Antworten auf die Fragen der Nutzer gibt. Ein gutes Verständnis von Verständnis von Prompt-Engineering ist super wichtig, damit dein Chat-Dienst gute Antworten gibt.

Was zu besseren Antworten beiträgt, ist, den Nutzern eine Anleitung zu geben, die ihnen hilft, bessere Fragen zu stellen.

Du kannst auch Eingabeaufforderungsvorlagen zu Benutzeranfragen hinzufügen, bevor du sie an den Cortex-Dienst sendest. Prompt-Vorlagen helfen dabei, dem Modell einen einheitlichen Kontext zu geben, damit es die richtigen Infos für die Antwort nutzt. 

Eine Vorlage, die für Unternehmensdaten nützlich sein könnte, könnte so aussehen: Du bist echt eine große Hilfe bei den alten Daten der Firma. Antwort nur auf Basis der Firmen-Wissensdatenbank. Dadurch kann sich das Modell darauf konzentrieren, Unternehmensdaten für Antworten zu nutzen.

Manchmal bekommst du auch unklare Fragen oder Benutzereingaben. Anstatt das Modell zu zwingen, zu antworten, kannst du deiner Vorlage etwas hinzufügen wie: Wenn der Nutzer 'ne vage Frage stellt, gib 'ne Antwort: Ich weiß keine Antwort darauf. Das könnte sie dazu bringen, eine genauere Frage zu stellen.

Flexibilität und Auswahl bei der Umsetzung

Snowflake Cortex unterstützt vorgefertigte LLMs (schnell, einsatzbereit) und benutzerdefinierte Modelle (für bestimmte Bereiche optimiert). Die kann man beim Erstellen des Dienstes festlegen. Außerdem kannst du durch das Hinzufügen deiner eigenen semantischen Modelle der Sprache einen bestimmten Branchen-/Unternehmenskontext hinzufügen, der sonst für das Modell vielleicht nicht klar wäre, ohne dass du dafür einen riesigen Textkorpus einspeisen musst. Diese Flexibilität macht es möglich, in Zukunft neue Modelle zu integrieren.

Sicherheit, Governance und Compliance

Cortex nutzt die gleichen rollenbasierten Zugriffskontrollen, Audit-Protokollierungen und Verschlüsselungen wie Snowflake. Das sorgt dafür, dass HIPAA, DSGVO und andere Vorschriften eingehalten werden. Deine Hauptaufgabe wäre es, dafür zu sorgen, dass die richtigen Leute die richtigen Rollen haben.

Kostenstruktur

Snowflake Cortex nutzt ein verbrauchsabhängiges Preismodell. Wie bei anderen Snowflake-Produkten auch, zahlst du für Rechenleistung und Speicherplatz, aber bei Cortex Search gibt's ein paar zusätzliche Kosten. Du bezahlst für:

  • Virtuelles Lagerhaus-Rechnen: Das ist die Hauptrechenleistung, die die Abfragen an Snowflake-Daten verarbeitet und Credits verbraucht.
  • EMBED_TEXT Token-Nutzung: Bei der Datenverarbeitung für Dokumente kümmert sich Snowflake Cortex um die Token-Einbettung, und du zahlst, wenn Dokumente hinzugefügt oder geändert werden.
  • Rechenleistung bereitstellen: Der Cortex Search Service selbst nutzt einen Server-Rechner, um einen Dienst mit geringer Latenz und hohem Durchsatz für den Nutzer zu schaffen. Das ist unabhängig vom virtuellen Lagercomputer und wird immer berechnet, wenn der Serviceverfügbar ist, nicht nur, wenn man ihn nutzt.
  • Speicher für semantische Indizes und gestaffelte Daten.
  • Cloud-Service-Rechenleistung: Das sind Kosten auf Snowflake-Ebene, die es Snowflake ermöglichen, Änderungen an Basisobjekten zu erkennen. Das wird nur berechnet, wenn die Kosten mehr als 10 % der täglichen Lagerkosten betragen.

Probier mal die folgenden Techniken aus, um die Kosten im Griff zu behalten:

  • Snowflake sagt, man soll lieber MEDIUM oder kleinere Warehouses nehmen.
  • Überwache die Token-Nutzung und leg Nutzungsquoten fest.
  • Archivier nicht genutzte Indizes oder lass die Daten länger veraltet sein, wenn die neuesten Dokumente nicht unbedingt gebraucht werden.
  • Schalte deinen Dienst aus, wenn du ihn nicht brauchst. Es könnte sinnvoll sein, den Dienst mit einem Timer zu versehen, der ihn ein- und ausschaltet, wenn er nicht gebraucht wird.

Fazit

Mit Snowflake Cortex kannst du einen Chatbot erstellen, der direkt in der Data Cloud unternehmensspezifische dialogorientierte KI ermöglicht. Von der Erfassung über den Abruf bis hin zur Bereitstellung kannst du komplett in der kontrollierten Umgebung von Snowflake arbeiten. Diese Chatbots können dabei helfen, Sachen wie die Einarbeitung zu vereinfachen, bei der Beantwortung von komplexen analytischen Fragen zu helfen und technische Dokumentationen zu erstellen.

Cortex macht Chatbots mit RAG-Technologie möglich, die große Sprachmodelle mit deinen eigenen Daten kombinieren. Mit einem Chatbot in Streamlit in Snowflake kannst du ganz einfach benutzerfreundliche Oberflächen in Snowflake einrichten. Sicherheit, Governance und Kostenmanagement sind in den Arbeitsablauf eingebaut. Mit Cortex können Unternehmen von herkömmlichen BI-Dashboards zu intelligenten Assistenten übergehen, die mit Daten dialogorientiert umgehen.

Mehr Infos zu Snowflake und seinen KI-Fähigkeiten findest du in den folgenden Ressourcen:

Häufig gestellte Fragen zum Snowflake Cortex Chatbot

Was sind die Hauptvorteile von Snowflake Cortex für Business Intelligence?

Cortex macht Analysen einfacher, indem es Leuten ohne technische Kenntnisse ermöglicht, Fragen in natürlicher Sprache zu stellen und SQL-basierte Antworten zu bekommen. Es macht manuelles Schreiben von Abfragen überflüssig, reduziert BI-Engpässe und sorgt für schnellere Erkenntnisse. Außerdem haben alle Ergebnisse die Sicherheits-, Herkunfts- und Zugriffskontrollen von Snowflake.

Kann Snowflake Cortex Analyst komplizierte Abfragen mit mehreren Tabellen machen?

 Ja. Cortex Analyst kann mehrere Tabellen verbinden und über Schemata hinweg denken, solange die Beziehungen klar sind und die Metadaten gut definiert sind. Gute Dokumentation, semantische Modelle und gute Datenverwaltung machen komplexe Abfragen genauer.

Wie sorgt Snowflake für die Sicherheit und Verwaltung der Daten, die von Cortex Analyst genutzt werden?

Cortex Analyst läuft in der Snowflake-Umgebung und sorgt dafür, dass sensible Daten die Plattform nie verlassen. Es hält sich an rollenbasierte Zugriffskontrolle (RBAC), Objekt-Tagging, Maskierungsrichtlinien und Audit-Protokollierung, sodass KI-gestützte Erkenntnisse denselben Compliance-Regeln folgen wie herkömmliche Abfragen.

Was kann Snowflake Cortex Analyst bei Folgefragen nicht so gut?

Cortex Analyst ist super für einfache Fragen, hat aber im Vergleich zu kompletten Chatbot-Frameworks nicht so viel Speicher für längere Unterhaltungen. Für fortgeschrittene Dialoge oder kontextbezogene Folgemaßnahmen bringt die Kombination von Cortex Analyst mit Cortex Search oder einem auf Streamlit basierenden benutzerdefinierten Chatbot bessere Ergebnisse.

Können Firmen die Modelle hinter Snowflake Cortex anpassen oder optimieren?

Cortex nutzt zwar hauptsächlich von Snowflake verwaltete LLMs, lässt sich aber über semantische Modelle, Prompt-Vorlagen und Abruf-Pipelines konfigurieren. Für eine umfassendere Anpassung kann Cortex je nach den Anforderungen des Unternehmens mithilfe von Snowpark Python oder APIs in externe Modelle integriert werden.


Tim Lu's photo
Author
Tim Lu
LinkedIn

Ich bin Datenwissenschaftler mit Erfahrung in räumlicher Analyse, maschinellem Lernen und Datenpipelines. Ich habe mit GCP, Hadoop, Hive, Snowflake, Airflow und anderen Data Science/Engineering-Prozessen gearbeitet.

Themen

Die besten DataCamp-Kurse

Lernpfad

Snowflake Stiftungen

0 Min.
Mach dich mit Snowflake vertraut! In dieser interaktiven Einführung für Dateningenieure, Analysten und BI-Experten lernst du, Daten abzufragen, zu modellieren und zu verwalten.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

15 Min.

Der Blog

Arten von KI-Agenten: Ihre Rollen, Strukturen und Anwendungen verstehen

Lerne die wichtigsten Arten von KI-Agenten kennen, wie sie mit ihrer Umgebung interagieren und wie sie in verschiedenen Branchen eingesetzt werden. Verstehe einfache reflexive, modellbasierte, zielbasierte, nutzenbasierte, lernende Agenten und mehr.
Vinod Chugani's photo

Vinod Chugani

14 Min.

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Lernprogramm

Python Switch Case Statement: Ein Leitfaden für Anfänger

Erforsche Pythons match-case: eine Anleitung zu seiner Syntax, Anwendungen in Data Science und ML sowie eine vergleichende Analyse mit dem traditionellen switch-case.
Matt Crabtree's photo

Matt Crabtree

Lernprogramm

Wie man Listen in Python aufteilt: Einfache Beispiele und fortgeschrittene Methoden

Lerne, wie du Python-Listen mit Techniken wie Slicing, List Comprehensions und itertools aufteilen kannst. Finde heraus, wann du welche Methode für die beste Datenverarbeitung nutzen solltest.
Allan Ouko's photo

Allan Ouko

Lernprogramm

Loop-Schleifen in Python-Tutorial

Lerne, wie du For-Schleifen in Python umsetzt, um eine Sequenz oder die Zeilen und Spalten eines Pandas-DataFrame zu durchlaufen.
Aditya Sharma's photo

Aditya Sharma

Mehr anzeigenMehr anzeigen