La regulación de la IA nos conduce a la inutilidad

El título del apunte de blog suena al espóiler de una tragedia. Tipo «en el Titanic morirán casi todos».

Lo argumentaré.

Que no se pueda decir que lo vi venir y no dije nada.

Se lleva mucho querer regular la IA, sobre todo en Europa. Leo esta idea en LinkedIn: «igual que en su día se crearon instituciones públicas para organizar la sociedad industrial (patronales, sindicatos, ministerios, etc.), hoy es necesario crear instituciones para organizar el mundo digital en que vivimos, preservando la información, la privacidad, la transparencia y la participación».

Buf.

A continuación, analizo si «es necesario» porque parece que la corriente hace que se espera que digamos que sí, pero no está tan claro.

Empiezo: en primer lugar, la sociedad industrial no generó instituciones para organizar las máquinas, sino para proteger los derechos de las personas y sus propiedades.

¿Qué hay en cuanto a la IA y «preservar la información, la privacidad, la transparencia y la participación»? ¿Hace falta algo nuevo para conseguirlo en el «mundo digital en el que vivimos»?

Analicémoslo.

(O no, por TL;DR)

Preservar la información

El contexto digital hace que cambien las técnicas de almacenamiento, protección, conservación e integridad de la información. También lo mejora, porque el replicado infinito, los cifrados y el blockchain dan más integridad que nunca a la información

No hace falta que ninguna institución haga nada nuevo para preservar la información en digital en comparación a cómo se hacía en papel. Es más eficaz educar las personas para comprender la calidad de los productos digitales a la hora de preservar la información. Es similar a por qué no usamos un candado de 10 € para cerrar la puerta de casa. Tiene grabadas las palabras top security, pero las ignoramos. Ninguna ley prohíbe que lo hagamos, ni tampoco que el candado diga top security, pero sabemos para qué no usarlo.

Hoy es muy fácil conseguir que la información esté replicada en centros de datos situados a mucha distancia, e incluso en placas tectónicas distintas para evitar que una catástrofe natural destruya la información. El histórico incendio de la biblioteca de Alejandría de la era digital ya no es un riesgo real, sino un descuido grave. Siendo tan asequible, ¿nadie activó la duplicación remota constante de toda la biblioteca? Y a la velocidad de la luz.

No hacen falta leyes nuevas. Bastan las que obligaban a las empresas a conservar la contabilidad en papel por cierto tiempo; las leyes para que algunas instituciones mantuviesen los registros en papel. Lo digital simplemente hace más fácil y seguro cumplir las leyes existentes.

Nuevas leyes que obliguen a la máxima preservación de la información a todo lo que tenga IA haría inviables muchas startups.

Al principio las startups son vulnerables, tienen poco impacto, y viven una fase experimental donde todo cambia —y varias veces— durante el product-market-fit y el go-to-market. Tampoco tienen la tracción necesaria para financiar infraestructuras importantes que cambian a menudo. No siempre ofrecen un producto que requiera preservar nada hasta que no alcancen la velocidad de crucero. Dicho de otra manera: imaginad una ley que prohibiera los candados y que fuese obligatoria una cerradura de seguridad en todas las puertas. Ahora entreved cuántas soluciones prácticas y ágiles pasarían a ser ilegales.

Las startups tienen que ser tan ágiles como LEAN manda, y la sobre-regulación mata la agilidad que necesitan para lograr tracción.

Tenemos ejemplos de lo que supone la sobre-regulación en el entorno digital: el Real Decreto Ley 14/1999, de 17 de septiembre, sobre firma electrónica, «fue aprobado con el objetivo de fomentar la rápida incorporación de las nuevas tecnologías de seguridad de las comunicaciones electrónicas en la actividad de las empresas, los ciudadanos y las Administraciones públicas». En 1999 querían que la cosa fuese rápido, pero firmar digitalmente sigue siendo un dolor en 2024. No mejoró con la posterior Ley 59/2003, de 19 de diciembre, de firma electrónica, ni tampoco con la que la derogaba: la reciente Ley 6/2020, de 11 de noviembre. Mientras tanto, la seguridad de las transacciones ha progresado notablemente para los productos digitales que no están sometidos a esas leyes. Cuando la ley aplica, Cl@ve es el primer avance significativo… 25 años después. ¿Dónde estarían hoy todos los SaaS B2B o B2C ante la competencia mundial, si tuviesen que cumplir con las leyes de firma electrónica? Y de custodia documental legal. Tendrían 25 años de retraso y con solo clientes usuarios obligados a usarlos sufrirlos por ley. Es lo que pretendemos con las regulaciones específicas para la IA.

He visto de cerca alguna startup que, en su workflow, tenía que firmar y custodiar según la ley. Esa parte fue el agujero negro donde no podían aportar nada interesante. Solo podían invisibilizarlo al máximo para sus clientes, porque es un dolor. ¿Queremos eso para todos los productos de software? Porque todos incluirán IA en pocos años.

Preservar la privacidad

Está muy relacionado con el tema anterior: preservar la información.

La mayoría de los incidentes de privacidad con la información digital son los mismos que sucedían en papel: robos. Esta imagen está muy ilustrada en películas que mostraban el delito de microfilmar papeles en la época pre-digital. Esos delitos siguen ahí, no hace falta crear nuevas instituciones, con sus sillas, para regular nada nuevo.

La privacidad digital no es diferente a la que esperamos del mundo analógico. Pedimos discreción máxima con los servicios de salud, pero somos más permisivos con otros servicios, como los domésticos de limpieza o los controles de los aeropuertos. Legalmente, es tan grave divulgar un historial médico escrito a mano en una servilleta como en una base de datos digital.

A la práctica, la mayoría estamos dispuestos a ceder privacidad a cambio de productos y servicios útiles. Nunca nos molestó que el software antispam leyese todos nuestros correos. Pero la privacidad es una objeción universal para los tecnoescépticos y los tectulianos que opinan mucho sobre tecnología, en todos los medios, pero que nunca crearon ningún producto digital relevante.

‘Privacidad’, esa palabra que otorga superioridad moral automágicamente; esa arma universal que puedes lanzar contra cualquier producto o emprendedor que no te guste, y levantar sospechas que la víctima nunca podrá superar, porque para cada argumento habrá un «sí, pero…».

Lo dicho no significa que piense que la privacidad no es importante; simplemente estoy cansado de tanta conspiranoia tectuliana. Violar la privacidad es una acusación considerable, y las grandes acusaciones piden grandes pruebas. Las veréis en casos contados y siempre publicados porque el GDPR lo exige. El resto es humo para causar FUD (Fear, Uncertainty and Doubt) con el software que nosotros no hemos sabido hacer.

Lo viví de cerca como cofundador de Menéame cuando, en España, quisimos regular el derecho de cita pero solo en internet. Google News se largó y nosotros sufrimos un hachazo. Mientras tanto, Reddit no tenía esos problemas tan incomprensibles.

No hace falta regular nada nuevo para la IA. La misma ley que obliga a guardar los documentos de papel en archivos seguros, con medidas de seguridad alrededor (incluso para una servilleta) tiene que hacer lo mismo con los documentos digitales. Basta que la ley diga «cualquier soporte» porque ya no escribimos solo sobre papel. La diferencia, otra vez, es que las medidas de seguridad digitales serán mucho más eficientes que las medidas de seguridad analógicas. Por ejemplo, que las medidas de seguridad del edificio Windsor de Madrid.

Es verdad que robaron datos médicos, y los publicaron. ¿Por qué no estaban cifrados? Si lo estaban, ¿por qué los ladrones supieron las claves? Cuando se investiga de verdad, esto es, sin ninguna fuerte predisposición para cierto resultado, a menudo aparecen motivos tan prosaicos como los que usaron los delincuentes para abrir aquellas cajas fuertes que casi todos hemos visto en las películas. 

Si has viajado lo suficiente, posiblemente has visto consoladores en los controles de los aeropuertos. Después, al subir al avión, no hay controles biométricos del rostro porque están prohibidos en Europa. Tu cara, que ha visto todo el mundo que te rodea, eso no se puede analizar. El consolador sí, porque es un aparato electrónico. No es racional.

(AENA anunció el embarque por reconocimiento facial. Ahora pueden, legalmente, pero la futura regulación europea en IA dice que no. ¿Cuánto durará el nuevo producto de AENA? La inseguridad jurídica hace muy difícil que una startup consiga inversión para entrar ahí, pero AENA tiene dinero y pueda arriesgar. Al final, en Europa siempre funcionan más la academia y las grandes corporaciones del pasado. ¿Startups? Molestan)

Junto a la racionalidad, tenemos el eterno problema de nuestra incapacidad europea a la hora de competir mundialmente en el mercado digital: poca gracia. Tenemos la actitud de funcionarios y profesores que nunca necesitarán ser competitivos, productivos ni ágiles; que tendrían un ataque de ansiedad si leyesen el libro LEAN Startup.

La privacidad no es solo un derecho para algunas cosas, como la salud o la vida sexual. En otros ámbitos debería ser un pacto entre cliente y proveedor.

Por ejemplo, no queremos que el urólogo divulgue detalles acerca de nuestros bajos, pero no nos importa que él los conozca con más detalles que nosotros mismos. Es algo parecido a lo que ha sucedido, en el entorno digital, con el software antispam que cité arriba: puedes leer todos mis correos para librarme del spam. Porque lo haces gratis, puedes mostrarme publicidad contextual al correo. Al final, la veo solo yo y no me obligas a comprar nada. Si pago, no hay publicidad, pero sigo queriendo el antispam. Su análisis sucede en el momento de la llegada del coreo, porque a continuación se cifrará para que solo los puedas leer tú. Así estás seguro de que no hacemos nada con tus correos, excepto para lo que pides: antispam. El certificado puede ser tuyo, instalado en lugares diferentes al del servidor de correo para que ellos no puedan verlo jamás. Con el urólogo, el equivalente sería flashearlo con el dispositivo de X-Men tras cada visita. El entorno digital vuelve a ser más seguro que el analógico. Otra vez. No obstante, en Europa preferimos no verlo.

Decía que hemos asumido el antispam como algo bueno. Pero la IA no. Hay que regularla hasta el punto que sea muy complicado crear un nuevo producto digital basado en IA. Ya lo crearán en América y Asia. Luego regularemos fuertemente la urología por si algún profesional, por lo que fuese, tuviese pensamientos impuros durante una exploración. Habrá menos urólogos, y muy caros, pero no es tan importante; todos acabaremos muriendo de algo.

(El tecnonihilismo epistemológico europeo me provoca sarcasmo)

Resumo, porque es demasiado fácil de manipular, hacer demagogia y populismo con la privacidad:

  • La privacidad es un pacto entre nosotros y el proveedor. No hagáis más difícil la sesión con una IA psicóloga que con el psicólogo de la esquina, que luego me encuentro en el supermercado con una botella de bourbon en el carro.
  • Tiene que haber confianza. Si no confías, cambia de proveedor.
  • No tiene ningún sentido ser conspiranoico con la privacidad digital. Ya lo dijo Elvis: «We can’t go on together / With suspicious minds (suspicious minds) / And we can’t build our dreams / On suspicious minds».
  • En realidad, tengo más sospechas de ser juzgado con el psicólogo de la esquina y quiero que en el futuro haya muchos basados en IA, para elegir el de confianza.
  • Tectulianos tecnoescépticos: dejad de sembrar sospechas, o no podremos estar juntos porque hay muchos sueños de futuro en la IA.
  • El GDPR es suficiente para los problemas técnicos, que es algo que ayuda a lo primordial: la confianza.

La transparencia y la participación

Supongo que pidieron transparencia y participación en la IA para que sonase o sonara bien. Algo tipo «la paz mundial». Me refiero a pedirla hasta el punto de querer instituciones y regulación, para conseguirla, tras decir que así fue para el mundo industrial. No. Jamás sucedió. ¿Ahora con la IA tiene que ser necesario? Oh, vaya. Parece que en Europa estamos rotundamente decididos a no ser competitivos. Y si es necesario ser naif, se es naif sin complejos,

La transparencia no existe en los regímenes totalitarios. Para el resto, la transparencia llega de forma progresiva, notablemente lenta —intento decirlo de una forma correcta. Por ejemplo, en las Illes Balears el PP+VOX acaban de cargarse la oficina anticorrupción que publicaba las propiedades e intereses económicos de los diputados y altos cargos. Más allá de la anécdota regional, es bien conocido que todos los gobiernos toman decisiones importantes desde infraestructuras ‘reservadas’ usando ‘presupuestos reservados’.

En cuanto a las empresas, las públicas —que cotizan en bolsa— están obligadas a la transparencia financiera, pero no a la transparencia estratégica con sus productos. Las empresas están obligadas, por ley, a respetar los derechos individuales y las propiedades de los demás. La ley no obliga a revelar la fórmula de la Coca-Cola, sin embargo, ni el producto ni la producción no puede hacer daño ni a personas ni a propiedades. Para la IA no hace falta nada más.

No defiendo la falta de transparencia, pero rechazo estar en inferioridad de ventajas competitivas con un sector tan estratégico como el de la IA. Pienso que la transparencia es un valor necesario para cualquier proyecto y que es posible sin sacrificar la competitividad, pero no acepto que nos condenen a la inutilidad.

El capital riesgo busca líneas rojas en las startups para decidir si invierte o no. La defensability es una de las más importantes. El concepto Se refiere a poder mantener una ventaja competitiva. Obligar a la transparencia y a la participación, si creas una empresa de IA, significa condenarte a la no defensability. Si la empresa es de producción de agua azucarada con gas, entonces no hay ningún problema más allá de los perjuicios a la salud y a las propiedades ajenas.

Quizás la reclamación de transparencia y participación, para la IA, está inspirada en el software libre. Si es así, se trata de una interpretación errónea. El software libre jamás condenó a nadie con la no defensability. El mecanismo es tan simple como que la entrega del código solo sucede cuando pasas una copia a alguien para que lo instale en sus ordenadores. Cuando te lo entregan es tuyo y puedes hacer lo que quieras con el software; es lo que tiene la libertad del software libre. No estás obligado a nada o no serías libre. Excepto si lo distribuyes, que es cuando tendrás que repetir lo mismo que hicieron contigo para que los demás también sean libres como tú: entregar el código. Si no distribuyes el software, los cambios en el código son tu ventaja competitiva exclusiva. 

Punto.

Por ese motivo, ningún SaaS en el cloud tiene que publicar el software libre que usó para crearlo. No vende software, sino servicios. No te entrega nada que tengas que instalar en casa. Lo compras por la su ventaja competitiva gracias a sus modificaciones. WordPress distribuye, en WordPress.ORG, un software diferente al que usa en WordPress.COM para vender sus servicios de publicación.

(Y tú, ¿a qué edad descubriste que el software libre no es comunista?)

Carlo M. Cipolla redactó las leyes básicas de la estupidez humana. Para ilustrarla usó un cuadrante. Los estúpidos son los que se perjudican a sí mismos y a los demás. Los helpless son los que benefician a los demás y se perjudican a sí mismos.

Helpless: indefensos, impotentes, desamparados, desvalidos, incapaces, inútiles, imposibilitados, incapacitados.

En América y Asia no estarán obligados a ser inútiles. Crearán productos de IA competitivos a una velocidad cien (o más) veces superior que la nuestra. Y mucho más barata. En Europa seremos vulnerables, lentos y caros para poder atender la burocracia a la cual que nos obligará la ley de transparencia para la IA. Sí, de los autores de la Ley Europea de Cookies para hacer más ‘transparente’ el web.

Buf.

Por supuesto, rechazaremos los productos de fuera, porque ellos no quieren ser inútiles.

Nuestro futuro es de ineficacia, improductividad e incompetencia en cualquier producto, porque todo lo que pueda ser software será software, y todo el software que pueda ser IA será IA.

Pero eso sí: seremos muy transparentes con nuestra IA inexistente en el continente de los AInútiles.


Imagen de cabecera: le pedí a una IA que ilustrara la inutilidad. Contestó así: «Here is an allegorical image representing the concept of uselessness, featuring various symbolic elements like a broken clock, wilted flowers, and a faded painting in an abandoned room». Hacia eso vamos.
Cuadrante de Cipolla: Wikipedia en inglés.

AI, ChatGPT, derechos, Europa, IA, regulación

Compartir

Entrada anterior
Estamos en Lanzadera
Entrada siguiente
Pablito

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Rellena este campo
Rellena este campo
Por favor, introduce una dirección de correo electrónico válida.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.