Reddit ha demandado a Perplexity AI por utilizar su contenido sin permiso ni compensación económica. Y este hecho no es una simple anécdota tecnológica, sino un aviso serio al nuevo ecosistema de inteligencia artificial que se ha alimentado -sin preguntar- de todo lo que subimos a la red.
Durante años, millones de usuarios han generado en Reddit una de las mayores bases de conocimiento colaborativo de Internet. Y esa misma información, recopilada por sistemas de scraping, ha servido para entrenar modelos de IA sin que nadie les pidiera consentimiento ni reconociera su autoría.
Pero, ahora, Reddit ha dicho “basta”.
El precio de los datos
Reddit sostiene que sus datos tienen valor y que, si alguien obtiene beneficio económico con ellos, debe pagar por usarlos. Perplexity, en cambio, defiende que entrenar con datos públicos es “libertad de información”.
El debate no es sólo legal, sino también ético: ¿puede una empresa construir un negocio sobre el trabajo intelectual de millones de personas que nunca dieron su consentimiento explícito?
Y no se trata únicamente de Reddit. Los periódicos ven cómo sus hemerotecas se usan para alimentar modelos de texto; los dibujantes de cómic descubren que su estilo aparece imitado por una IA generativa; los músicos, los fotógrafos y los creadores de contenido digital asisten a la misma escena: su obra convertida en materia prima de sistemas que luego compiten con ellos mismos.
Detrás de cada asistente “mágico” hay toneladas de texto, imágenes, trazos y melodías creadas por otros. Y no, las empresas que entrenan sus modelos con ese contenido no lo hacen por error: lo hacen porque pueden. El vacío legal es el terreno de juego perfecto hasta que alguien lo cuestiona en los tribunales.
Transparencia ausente = derecho lento
Reddit no está defendiendo la moral: está defendiendo su negocio. Pero en este caso, rara avis, negocio y ética coinciden. Si los datos son la nueva materia prima del siglo XXI, su uso debe tener reglas.
Las grandes plataformas predican sobre ética y responsabilidad, pero escasamente explican de dónde proviene lo que saben sus modelos. Mientras tanto, millones de usuarios siguen creyendo que borrar una cuenta equivale a borrar sus datos.
La llamada “IA responsable” no puede construirse sobre un modelo opaco que nadie entiende y que todos usamos.
El derecho digital suele ir siempre un paso por detrás de la tecnología, pero algo está cambiando. Los datos ya no son simples bits: son dinero, poder e influencia. Quien los controle, controlará la inteligencia artificial del futuro. Y, por primera vez, algunas plataformas están dispuestas a reclamar su parte del pastel.
Cuando Internet empieza a morder…
La IA se ha alimentado de Internet durante años, y ahora Internet empieza a responder. Los foros, medios y plataformas que sirvieron de combustible gratuito para entrenar modelos comienzan a pasar factura.
Si cada fuente exige compensación, el modelo de negocio de muchas startups de IA podría tambalearse. Lo que parecía una revolución sin costes empieza a mostrar su factura real.
Si tu empresa usa inteligencia artificial, pregúntate de dónde vienen los datos. Si eres creador, empieza a proteger los tuyos. Y si crees que esto no te afecta… probablemente ya formes parte del próximo dataset de entrenamiento.
Porque sí: la inteligencia artificial se está comiendo Internet.
Y, en esta ocasión, Internet ha aprendido a morder.
