De zéro à l’IA responsable : déployer Gemini sur Google Cloud

A blueprint

De Zéro à Vertex AI Invoke Gemini en utilisant les Principes de l’IA Responsable

Ce tutoriel présente la procédure de déploiement d’une application FastAPI sur Google Cloud Run qui invoque les modèles Gemini via Vertex AI, tout en mettant en œuvre des principes d’IA responsable.

Introduction

Dans cet article, nous allons explorer comment configurer des filtres de sécurité pour quatre catégories de préjudices : contenu dangereux, harcèlement, discours de haine et contenu sexuellement explicite, avec des seuils de blocage stricts. Nous utiliserons Vellox comme adaptateur pour exécuter des applications ASGI dans Google Cloud Functions, et nous mettrons en place une authentification par jeton Bearer pour la sécurité. Le processus complet, y compris l’activation des services nécessaires de Google Cloud, la configuration des rôles IAM, et le déploiement de la fonction avec des variables d’environnement, sera détaillé.

Ce tutoriel met l’accent sur des mises en œuvre de sécurité pratiques en montrant comment Vertex AI filtre à la fois les entrées et les sorties, renvoyant une raison de « SAFETY » avec des évaluations de sécurité détaillées lorsque du contenu nuisible est détecté. Cela le rend particulièrement utile pour les développeurs souhaitant créer des applications d’IA avec modération de contenu intégrée et sécurité dès le départ.

Technologies Utilisées

Fonctions Cloud Run :

Les fonctions Cloud Run sont idéales lorsque vous devez réagir à des événements ou des déclencheurs HTTP rapidement, avec une configuration minimale — toute l’infrastructure est gérée pour vous. Vous travaillez avec des fonctions concises plutôt qu’avec des services complets.

Vellox :

Vellox est un adaptateur pour exécuter des applications ASGI dans GCP Cloud Functions.

HTTPBearer :

HTTPBearer dans FastAPI est un utilitaire de sécurité qui gère l’authentification par jeton Bearer, une méthode courante pour sécuriser les points de terminaison d’API. Il s’occupe de la présence et de l’extraction du jeton Bearer.

Étapes de Mise en Place

Configuration de l’Environnement de Développement

Utilisez devcontainer pour installer tout ce qui est nécessaire. Mettez en place Docker et DevContainer, et une fois le code récupéré, vous êtes prêt à démarrer.

Activer les Services

Pour la première utilisation, exécutez les commandes suivantes :

gcloud init
gcloud services enable artifactregistry.googleapis.com cloudbuild.googleapis.com run.googleapis.com logging.googleapis.com aiplatform.googleapis.com

Permissions IAM

Dans IAM, donnez le rôle de projet ‘roles/aiplatform.user’ au projet en cours.

Déploiement avec Variables d’Environnement

Utilisez la commande suivante pour déployer :

gcloud run deploy fastapi-func --source . --function handler --base-image python313 --region asia-south1 --set-env-vars API_TOKEN="damn-long-token",GOOGLE_GENAI_USE_VERTEXAI=True,GOOGLE_CLOUD_LOCATION=global --allow-unauthenticated

Cette commande déploie une fonction FastAPI nommée handler depuis votre dossier local, fonctionne sur Python 3.13, dans la région Mumbai (asia-south1), avec des variables d’environnement définies pour les jetons API et l’utilisation de Google Vertex AI. Elle est accessible au public (aucune authentification requise sauf celle définie pour Bearer).

Examen de main.py

Voici un exemple de code d’une application FastAPI GCP intégrant Google Gemini AI avec des filtres de contenu de sécurité :


import httpx, os, uuid
from fastapi import Depends, FastAPI, HTTPException, status
from fastapi.security import HTTPBearer, HTTPAuthorizationCredentials
from vellox import Vellox
from pydantic import BaseModel
from typing import Optional
from google import genai
from pathlib import Path
from google.genai.types import (
GenerateContentConfig,
HarmCategory,
HarmBlockThreshold,
HttpOptions,
SafetySetting,
)

safety_settings = [
SafetySetting(
category=HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT,
threshold=HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
SafetySetting(
category=HarmCategory.HARM_CATEGORY_HARASSMENT,
threshold=HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
SafetySetting(
category=HarmCategory.HARM_CATEGORY_HATE_SPEECH,
threshold=HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
SafetySetting(
category=HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT,
threshold=HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
]

Dans cet exemple, safety_settings est défini comme une liste d’objets SafetySetting — chacun déclare une catégorie de préjudice et un seuil de blocage, couvrant le contenu dangereux, le harcèlement, le discours de haine et le contenu sexuellement explicite, avec un blocage strict pour tous. Ces catégories et seuils sont les mêmes que ceux documentés pour l’API Gemini ; les catégories non listées reviennent aux valeurs par défaut.

Pratiquement, ces paramètres filtrent à la fois les entrées et les sorties. Si le modèle juge que le contenu atteint ou dépasse le seuil, l’appel est bloqué (aucun texte renvoyé). Par défaut, Gemini utilise une méthode de blocage des préjudices sensible à la gravité dans Vertex AI; ce comportement peut être ajusté si nécessaire.

Pour plus de détails, consultez le code sur GitHub.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...