Cuando la IA pasa de copiloto a piloto ¿Cuáles son los riesgos?

 


La inteligencia artificial (IA), cuyo objetivo principal es simular procesos cognitivos humanos para resolver problemas de manera eficiente y efectiva, ya está entre nosotros y promete quedarse.


Cada vez son más las personas que utilizan esta tecnología en diversas áreas de sus vidas y en campos tan diversos como la atención médica (por ejemplo, diagnóstico médico asistido por IA), la atención al cliente (mediante chatbots y sistemas de respuesta automática), la industria manufacturera (para optimizar la producción y la logística), el sector financiero (en análisis de riesgos y detección de fraudes) y la educación (en sistemas de tutoría personalizada), entre otros.


También vemos videos e imágenes creados con esta tecnología, donde algunos son virales por llevar mensajes efectivos y otros por la magnífica recreación artificial de personas públicas transmitiendo mensajes que nunca se dieron o incluso copiando discursos del siglo pasado con los personajes actuales para poder asociar ideologías similares.


Incluso, recientemente fue noticia, el reconocido evento de moda a nivel mundial, La Met Gala, dónde imágenes de artistas que ni siquiera asistieron al mismo, recreadas con IA, fueron las protagonistas de la noche y pusieron en evidencia la capacidad de la tecnología para generar contenido falso que induce a confusión.


Por todo esto, podemos afirmar que la IA hoy es el copiloto ideal de nuestras tareas diarias que nos permite acelerar tiempos de respuesta e incrementar nuestra productividad.


Sin embargo y pese a estas virtudes, ha recibido severas críticas dónde se la acusa de atacar contra el trabajo de las personas. Una evaluación que considero errónea, ya que personalmente no soy partidario de que las nuevas tecnologías sean un problema para la generación de nuevos puestos de trabajo. Incluso, está demostrado que con cada avance tecnológico los puestos de trabajo se transforman en puestos más calificados, mejor remunerados y más productivos.


Entonces, se preguntaran ustedes cuáles son los riesgos que yo creo que debemos enfrentar. Acá les comparto mi reflexión: Cuando la IA pasa de copiloto (asistente o colaborador) a piloto (actuar independientemente, tomar decisiones complejas y realizar tareas sin intervención humana directa) representa un grave peligro: La pérdida de confianza generalizada.


La característica principal de esta nueva tecnología es que tiene cierta autonomía para crear algo dentro de los parámetros provistos por nosotros mismos. Esta creación artificial no distingue si es algo bueno o algo malo, no distingue si está dentro de la ley o no lo está. Es solo una creación digital creada por un algoritmo programado por nosotros mismos.


Entonces, ¿qué pasaría si en vez de usar la IA para la comunicación efectiva se utilizara para usos indebidos?

No poder distinguir entre la información diaria cual es real y cual fue recreada artificialmente, puede representar un peligro de pérdida de confianza generalizada, lo que conlleva grandes conflictos, ya que la mayoría de las economías funcionan con confianza. Sin ella no tendríamos sistema financiero, comercio internacional ni comercio electrónico.


Ante este riesgo inminente, ¿qué podemos hacer? Debemos tener en cuenta que la IA es solo un algoritmo que recrea cosas a nuestro pedido. Desde el punto de vista técnico es la evolución de las redes neuronales recurrentes que son muy usadas en muchísimas soluciones digitales. ¿Puede un algoritmo ser sentenciado por mal uso? ¿Puede un algoritmo ser regulado para hacer algunas cosas sí y otras no? La respuesta es clara. Sería como querer regular internet, una red digital global con múltiples jurisdicciones. No es viable.


¿Cómo podemos entonces resolver un posible problema de confianza masivo generado por nosotros mismos utilizando IA?

Existe una tecnología autónoma, descentralizada e inmutable dónde la confianza no es la base del funcionamiento. Esta tecnología llamada blockchain se desarrolla en base a “don't trust verify “ …”no confíes verifica”


Si bien suena futurista plantear como solución una tecnología controlando a otra tecnología, esta forma es utilizada en muchos campos autónomos, como por ejemplo los sistemas de alertas aéreos y los sistemas de controles industriales que son simples algoritmos controlando otros robots autónomos.


Por lo tanto, ante una inminente IA evolucionando de copiloto a piloto, la verificación de un sello inmutable de origen en la blockchain, resolvería el problema de confianza, convirtiéndose en un nuevo caso de uso dónde una tecnología controla a la otra.


Por José Luis del Palacio - Cofundador de Decrypto


Artículo Anterior Artículo Siguiente