Categorías

Recientes

Industrias

Featured

Productos

Trabaja con nosotros

Navegación

Artículos

Conectar

Liderazgo e IA· · 5 min read

Cuando Tu Plataforma de IA Aloja Algo Que No Debería

En 2022, Hugging Face tuvo que decidir qué hacer con GPT-4chan. La decisión no fue fácil, y la forma en que se tomó es más útil para los ejecutivos que la respuesta.

Cuando Tu Plataforma de IA Aloja Algo Que No Debería

En mayo de 2022, un miembro de la comunidad subió un modelo llamado GPT-4chan al sitio de Hugging Face. El modelo había sido entrenado durante tres años y medio con publicaciones del “Politically Incorrect Board” de 4chan — una de las fuentes más confiables de internet de lenguaje tóxico, racista y derogatorio. Funcionaba exactamente como lo esperarías.

Lo que siguió dentro de Hugging Face es uno de los casos de estudio más útiles en gobernanza de IA disponibles para ejecutivos. No porque hayan tomado la decisión correcta — pueden haberla tomado, pueden no haberla tomado, y el propio Delangue ha ido y venido sobre eso. El caso es útil por cómo tomaron la decisión, y qué revela ese proceso sobre gobernanza en un dominio donde el manual aún no se ha escrito.

El argumento a favor de alojarlo

El autor del modelo argumentó, con cierto mérito técnico, que GPT-4chan tenía aplicaciones legítimas de investigación. Podía usarse para estudiar el discurso tóxico. Funcionaba bien en tareas de detección de toxicidad porque había aprendido la distribución del lenguaje tóxico tan a fondo. Removerlo sentaría un precedente: la plataforma decide qué investigación es aceptable.

Este argumento importa porque no es obviamente equivocado. La tesis fundacional de Hugging Face es que la apertura — la habilidad sin restricciones de publicar, estudiar y construir sobre modelos — es lo que hace que la investigación de IA progrese. Remover modelos selectivamente porque generan contenido ofensivo es exactamente el tipo de curaduría que las plataformas cerradas hacen, y la alternativa que Hugging Face existe para ser.

Una petición firmada por 360 investigadores de IA eventualmente argumentó lo opuesto: que alojar GPT-4chan socavaba a la misma comunidad de investigación que Hugging Face servía, porque los daños componían más rápido de lo que se acumulaban los beneficios de investigación.

Cómo se tomó la decisión

Hugging Face pasó días en discusión interna. El equipo eventualmente deshabilitó el acceso al modelo en el sitio mientras dejaba el debate y la documentación públicamente disponibles, para que la discusión misma quedara como parte del registro.

Dos cosas sobre ese proceso son inusuales.

Primero, la compañía publicó su desacuerdo. La mayoría de las plataformas grandes toman estas decisiones de forma opaca. El modelo se remueve, o no, y hay una actualización de un párrafo en las guidelines de la comunidad. Hugging Face dejó visible el hilo de discusión público. Cualquiera podía leer los argumentos de ambos lados. La compañía explícitamente notó que las opiniones internas habían estado fuertemente divididas.

Segundo, Delangue cuestionó públicamente la decisión después de tomarla. Meses después, en otoño de 2022, seguía reflexionando sobre si la compañía había tomado la decisión correcta. “En otoño de 2022, con el beneficio de unos meses de retrospectiva y un momento más calmado para reflexionar, ¿había Hugging Face tomado la decisión correcta?” Esa es una frase notable para que un CEO la deje en el registro público. Señala que la decisión no se llegó por certeza — se llegó por juicio, y el juicio es permanentemente revisable.

Qué significa esto para tu postura de gobernanza

La mayoría de los documentos de gobernanza de IA empresarial se leen como memos de cumplimiento. Definen casos de uso prohibidos, listan proveedores aprobados, fijan rutas de escalamiento. Están diseñados para hacer las decisiones más fáciles de defender, no necesariamente más fáciles de tomar.

El enfoque de Hugging Face invierte eso. La postura de gobernanza es:

  1. Los casos difíciles se deciden por juicio, no por política. Una política preescrita no puede anticipar todo caso límite. Un proceso basado en juicio acepta que algunas decisiones serán equivocadas, y construye mecanismos para revisitarlas.

  2. El razonamiento se publica, no la conclusión. A los stakeholders se les debe el argumento, no solo el veredicto. Esto es incómodo para ejecutivos entrenados a proyectar decisión, pero es más durable en un dominio donde el consenso cambia cada trimestre.

  3. Quienes deciden disienten en público. El desacuerdo interno no es una falla de liderazgo. Es una señal de que la pregunta es genuinamente difícil. Suprimirlo produce teatro de gobernanza en vez de gobernanza.

Para ejecutivos parando una política de IA en sus organizaciones, la implicación es incómoda. No puedes escribir una política que maneje correctamente decisiones de clase GPT-4chan por adelantado. Lo que puedes hacer es construir un proceso que tome esas decisiones visiblemente, con el desacuerdo intacto, con el razonamiento accesible, y con la puerta abierta para cambiar de opinión.

El contraargumento desde adentro

La objeción pragmática a este tipo de apertura es que no escala. Hugging Face aloja tres millones de modelos. La compañía no puede revisar personalmente cada uno. La mayoría de las decisiones de plataforma tienen que tomarse por política, no por deliberación, porque la política es el único mecanismo que opera a escala.

Esto es correcto, y es por eso que GPT-4chan es la excepción y no la regla. La gran mayoría de las decisiones de plataforma son rutinarias: este modelo viola la política de contenido, ese no. La política las maneja. La pregunta es qué pasa en la frontera — cuando llega un caso que la política no anticipó.

La respuesta de Hugging Face es que los casos límite reciben tratamiento de deliberación. Se toma tiempo. El desacuerdo se registra. La conclusión se trata como provisional. Esto es más lento que un lookup de política, pero es apropiado para la naturaleza de la pregunta que se está haciendo.

La lección que vale la pena guardar

La tentación, leyendo un caso como este, es buscar la respuesta correcta. ¿Debieron alojar GPT-4chan o no?

Esa es la pregunta equivocada. La pregunta correcta es: ¿qué tipo de proceso de gobernanza debería tener tu organización cuando enfrentes tu versión de esta decisión — y la enfrentarás, porque toda organización desplegando IA eventualmente enfrenta una pregunta para la que ninguna política fue escrita?

El proceso de Hugging Face no será exactamente el correcto para tu organización. Los principios detrás podrían serlo: deliberación sobre política en la frontera, razonamiento público sobre veredictos silenciosos, desacuerdo registrado sobre consenso manufacturado, y el reconocimiento explícito de que la decisión es revisable.

Las organizaciones que construyan gobernanza así se verán más lentas que las que se escondan detrás de una política. En el corto plazo, lo serán. En el largo plazo, serán las cuyos despliegues de IA sigan siendo defendibles dentro de cinco años.