Von Null zu Vertex AI: Verantwortungsvoll mit Gemini arbeiten

Von Null zu Vertex AI Invoke Gemini unter Verwendung von verantwortungsvollen KI-Prinzipien

Diese Anleitung bietet einen umfassenden Überblick über die Implementierung einer FastAPI-Anwendung auf Google Cloud Run, die Gemini-Modelle über Vertex AI aufruft, während verantwortungsvolle KI-Prinzipien beachtet werden.

Einführung

Die Anleitung zeigt, wie Sicherheitsfilter für vier Schadenskategorien (gefährliche Inhalte, Belästigung, Hassrede und sexuell explizite Inhalte) mit strengen Blockierungsgrenzen konfiguriert werden. Mit Vellox wird ein Adapter verwendet, um ASGI-Anwendungen in Google Cloud Functions auszuführen. Zudem wird die Bearer-Token-Authentifizierung für die Sicherheit implementiert.

Technologien

Cloud Run Funktionen:

Cloud Run eignet sich für schnelle Reaktionen auf Ereignisse oder HTTP-Trigger und erfordert minimale Konfiguration, da die gesamte Infrastruktur verwaltet wird.

Velox:

Vellox ist ein Adapter für die Ausführung von ASGI-Anwendungen in GCP Cloud Functions.

HTTPBearer:

HTTPBearer in FastAPI ist ein Sicherheitswerkzeug, das zur Handhabung von Bearer-Token-Authentifizierung dient, die eine gängige Methode zur Sicherung von API-Endpunkten ist.

Schritte zur Umsetzung

Einrichten der Entwicklungsumgebung:

Verwenden Sie devcontainer, um alles zu installieren. Richten Sie Docker und DevContainer ein, und nach dem Herunterladen des Codes sind Sie bereit.

Dienste aktivieren:

Führen Sie den folgenden Befehl aus, um die benötigten Dienste zu aktivieren:

gcloud init

Gefolgt von:

gcloud services enable artifactregistry.googleapis.com cloudbuild.googleapis.com run.googleapis.com logging.googleapis.com aiplatform.googleapis.com

IAM-Berechtigungen:

Weisen Sie in IAM die Projektrolle ‚roles/aiplatform.user‘ zu.

Bereitstellung mit Umgebungsvariablen:

Führen Sie den folgenden Befehl aus, um die FastAPI-Funktion bereitzustellen:

gcloud run deploy fastapi-func --source . --function handler --base-image python313 --region asia-south1 --set-env-vars API_TOKEN="damn-long-token",GOOGLE_GENAI_USE_VERTEXAI=True,GOOGLE_CLOUD_LOCATION=global --allow-unauthenticated

Wichtigste Punkte des Codes

In der Datei main.py wird ein GCP FastAPI-Beispiel mit Google Gemini AI (mit Sicherheitsinhaltsfiltern) definiert. Sicherheitsvorkehrungen werden durch die Definition von safety_settings als Liste von SafetySetting-Objekten getroffen, die die Schadenskategorien und Blockierungsgrenzen definieren.

Endpoints:

Das Beispiel bietet einen einfachen Endpunkt für die Gesundheitsprüfung und einen weiteren, um Text zusammenzufassen. Bei der Zusammenfassung wird der eingegebene Text verarbeitet und das Ergebnis wird zurückgegeben, es sei denn, es wird als schädlich eingestuft.

Wenn der Inhalt die festgelegten Schwellenwerte überschreitet, wird der Aufruf blockiert, und es wird kein Text zurückgegeben. Diese Einstellungen sind entscheidend für die Entwicklung sicherer AI-Anwendungen.

Fazit

Diese Anleitung bietet eine wertvolle Ressource für Entwickler, die KI-Anwendungen mit integrierter Inhaltsmoderation und Sicherheit von Grund auf erstellen möchten. Die Implementierung verantwortungsvoller KI-Prinzipien ist nicht nur notwendig, sondern auch machbar durch den Einsatz moderner Technologien wie Vertex AI und FastAPI.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...