Implementación de AI Responsable en Vertex AI con Gemini

De Cero a Vertex AI: Invocando Gemini utilizando Principios de IA Responsable

Este artículo es un tutorial sobre cómo desplegar una aplicación FastAPI en Google Cloud Run que invoca modelos Gemini a través de Vertex AI, implementando al mismo tiempo principios de IA responsable.

Introducción

El artículo guía al lector en la configuración de filtros de seguridad para cuatro categorías de daño: contenido peligroso, acoso, discurso de odio y contenido sexualmente explícito con umbrales de bloqueo estrictos. Se utiliza Vellox como adaptador para ejecutar aplicaciones ASGI en funciones de Google Cloud y se implementa autenticación de token Bearer para mayor seguridad.

El tutorial enfatiza la implementación práctica de la seguridad al mostrar cómo Vertex AI evalúa tanto las entradas como las salidas, devolviendo una razón de «SAFETY» con calificaciones de seguridad detalladas cuando se detecta contenido dañino, lo que resulta particularmente útil para desarrolladores que desean construir aplicaciones de IA con moderación de contenido y seguridad desde el principio.

Tecnologías Utilizadas

Funciones de Cloud Run

Esta tecnología es ideal para responder a eventos o desencadenadores HTTP rápidamente, requiere una configuración mínima, y trabaja con funciones concisas en lugar de servicios completos.

Velox

Vellox es un adaptador que permite ejecutar aplicaciones ASGI en Google Cloud Functions.

HTTPBearer

HTTPBearer en FastAPI es una utilidad de seguridad diseñada para manejar la autenticación de token Bearer, un método común para asegurar los puntos finales de API.

Pasos para la Configuración del Entorno de Desarrollo

Utiliza devcontainer para instalar todo lo necesario. Establece Docker y DevContainer y, tras clonar el código, estarás listo para comenzar.

Habilitar Servicios

En tu primera vez, deberás ejecutar el siguiente comando:

gcloud init

Luego, habilita los servicios necesarios:

gcloud services enable artifactregistry.googleapis.com cloudbuild.googleapis.com run.googleapis.com logging.googleapis.com aiplatform.googleapis.com

Permisos de IAM

En IAM, otorga el rol de proyecto roles/aiplatform.user al proyecto actual.

Desplegar con Variables de Entorno

Utiliza el siguiente comando para desplegar la función FastAPI:

gcloud run deploy fastapi-func --source . --function handler --base-image python313 --region asia-south1 --set-env-vars API_TOKEN="damn-long-token",GOOGLE_GENAI_USE_VERTEXAI=True,GOOGLE_CLOUD_LOCATION=global --allow-unauthenticated

Este comando despliega una función FastAPI llamada handler desde tu carpeta local, ejecutándose en Python 3.13, en la región de Mumbai (asia-south1), con variables de entorno establecidas para los tokens de API y el uso de Google Vertex AI, y está disponible públicamente (sin autenticación requerida, excepto la que se establece para Bearer).

Ejemplo de Código en main.py

A continuación se presenta un ejemplo de cómo se configura la aplicación FastAPI con filtros de contenido de seguridad:

import httpx, os, uuid
from fastapi import Depends, FastAPI, HTTPException, status
from fastapi.security import HTTPBearer, HTTPAuthorizationCredentials
from vellox import Vellox
from pydantic import BaseModel
from typing import Optional
from google import genai
from pathlib import Path
from google.genai.types import GenerateContentConfig, HarmCategory, HarmBlockThreshold, HttpOptions, SafetySetting

Las configuraciones de seguridad se definen como una lista de objetos SafetySetting, donde cada uno declara una categoría de daño y un umbral de bloqueo. Esto incluye: contenido peligroso, acoso, discurso de odio y contenido sexualmente explícito, todos configurados para bloquear bajo y arriba (estricto).

Estas configuraciones evalúan tanto las entradas como las salidas. Si el modelo determina que el contenido cumple o excede el umbral, la llamada es bloqueada (sin texto devuelto). Por defecto, Gemini utiliza un método de bloqueo de daño consciente de la severidad en Vertex AI, que se puede ajustar según sea necesario.

Conclusión

Este tutorial proporciona una guía completa para desplegar aplicaciones de IA responsables utilizando Google Cloud y Vertex AI, asegurando que los desarrolladores puedan construir aplicaciones seguras y confiables desde el principio.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...