Von Null zu Vertex AI: Verantwortungsvoll mit Gemini arbeiten

Von Null zu Vertex AI Invoke Gemini unter Verwendung von verantwortungsvollen KI-Prinzipien

Diese Anleitung bietet einen umfassenden Überblick über die Implementierung einer FastAPI-Anwendung auf Google Cloud Run, die Gemini-Modelle über Vertex AI aufruft, während verantwortungsvolle KI-Prinzipien beachtet werden.

Einführung

Die Anleitung zeigt, wie Sicherheitsfilter für vier Schadenskategorien (gefährliche Inhalte, Belästigung, Hassrede und sexuell explizite Inhalte) mit strengen Blockierungsgrenzen konfiguriert werden. Mit Vellox wird ein Adapter verwendet, um ASGI-Anwendungen in Google Cloud Functions auszuführen. Zudem wird die Bearer-Token-Authentifizierung für die Sicherheit implementiert.

Technologien

Cloud Run Funktionen:

Cloud Run eignet sich für schnelle Reaktionen auf Ereignisse oder HTTP-Trigger und erfordert minimale Konfiguration, da die gesamte Infrastruktur verwaltet wird.

Velox:

Vellox ist ein Adapter für die Ausführung von ASGI-Anwendungen in GCP Cloud Functions.

HTTPBearer:

HTTPBearer in FastAPI ist ein Sicherheitswerkzeug, das zur Handhabung von Bearer-Token-Authentifizierung dient, die eine gängige Methode zur Sicherung von API-Endpunkten ist.

Schritte zur Umsetzung

Einrichten der Entwicklungsumgebung:

Verwenden Sie devcontainer, um alles zu installieren. Richten Sie Docker und DevContainer ein, und nach dem Herunterladen des Codes sind Sie bereit.

Dienste aktivieren:

Führen Sie den folgenden Befehl aus, um die benötigten Dienste zu aktivieren:

gcloud init

Gefolgt von:

gcloud services enable artifactregistry.googleapis.com cloudbuild.googleapis.com run.googleapis.com logging.googleapis.com aiplatform.googleapis.com

IAM-Berechtigungen:

Weisen Sie in IAM die Projektrolle ‚roles/aiplatform.user‘ zu.

Bereitstellung mit Umgebungsvariablen:

Führen Sie den folgenden Befehl aus, um die FastAPI-Funktion bereitzustellen:

gcloud run deploy fastapi-func --source . --function handler --base-image python313 --region asia-south1 --set-env-vars API_TOKEN="damn-long-token",GOOGLE_GENAI_USE_VERTEXAI=True,GOOGLE_CLOUD_LOCATION=global --allow-unauthenticated

Wichtigste Punkte des Codes

In der Datei main.py wird ein GCP FastAPI-Beispiel mit Google Gemini AI (mit Sicherheitsinhaltsfiltern) definiert. Sicherheitsvorkehrungen werden durch die Definition von safety_settings als Liste von SafetySetting-Objekten getroffen, die die Schadenskategorien und Blockierungsgrenzen definieren.

Endpoints:

Das Beispiel bietet einen einfachen Endpunkt für die Gesundheitsprüfung und einen weiteren, um Text zusammenzufassen. Bei der Zusammenfassung wird der eingegebene Text verarbeitet und das Ergebnis wird zurückgegeben, es sei denn, es wird als schädlich eingestuft.

Wenn der Inhalt die festgelegten Schwellenwerte überschreitet, wird der Aufruf blockiert, und es wird kein Text zurückgegeben. Diese Einstellungen sind entscheidend für die Entwicklung sicherer AI-Anwendungen.

Fazit

Diese Anleitung bietet eine wertvolle Ressource für Entwickler, die KI-Anwendungen mit integrierter Inhaltsmoderation und Sicherheit von Grund auf erstellen möchten. Die Implementierung verantwortungsvoller KI-Prinzipien ist nicht nur notwendig, sondern auch machbar durch den Einsatz moderner Technologien wie Vertex AI und FastAPI.

More Insights

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...

Pakistans nationale KI-Politik: Ein ehrgeiziger Plan für Innovation und Arbeitsplatzschaffung

Pakistan hat eine ehrgeizige nationale KI-Politik eingeführt, die darauf abzielt, innerhalb von fünf Jahren einen Binnenmarkt für KI im Wert von 2,7 Milliarden USD aufzubauen. Die Politik umfasst...

Ethik im KI-Management: Ein Leitfaden für Unternehmen

Dieser Leitfaden erläutert, warum ethische Governance ein entscheidender Faktor für skalierbare KI ist und was Unternehmen tun können, um langfristige Resilienz zu gewährleisten. Er bietet umsetzbare...

Umfassende KI-Strategien für die Hochschulbildung

Künstliche Intelligenz revolutioniert das Lernen, Lehren und die Abläufe im Hochschulbereich, indem sie personalisierte Lernbegleiter bietet und die institutionelle Resilienz stärkt. Hochschulen...

KI-Governance: Verantwortungsvoll mit globalen Standards ausrichten

Künstliche Intelligenz (KI) prägt zunehmend die Finanzdienstleistungen, die Landwirtschaft, die Bildung und sogar die Regierungsführung in Afrika. Ghana hat im Mai 2025 seine erste nationale...

Die bevorstehende KI-Krise

Die wirtschaftliche Transformation durch KI hat begonnen, wobei Unternehmen wie IBM und Salesforce Mitarbeiter durch KI-Chatbots ersetzt haben. Arbeitnehmer befürchten massenhafte Entlassungen durch...

Ethik der digitalen Arbeit: Verantwortung für die KI-Arbeitskraft

Die digitale Arbeit wird im Arbeitsplatz immer häufiger, jedoch gibt es nur wenige allgemein akzeptierte Regeln für ihre Governance. Die größte Herausforderung für Führungskräfte besteht darin, die...

Anthropic bringt Petri-Tool zur Automatisierung von KI-Sicherheitsaudits

Anthropic hat Petri, ein Open-Source-Tool zur automatisierten Prüfung der Sicherheit von KI, vorgestellt, das große Sprachmodelle (LLMs) auf riskantes Verhalten testet. Das Tool nutzt autonome...

EU KI-Gesetz und DSGVO: Konflikt oder Einklang?

Künstliche Intelligenz ist das allgegenwärtige Schlagwort in der Rechtsbranche, und der EU AI Act steht im Fokus vieler Juristen. In diesem Artikel werden die bedeutendsten Wechselwirkungen zwischen...