José Miguel Chirinos, partner en PwC de Venezuela, explica cómo la Inteligencia Artificial (IA) va a cambiar radicalmente la forma de hacer negocios, pero necesita regulaciones ante graves riesgos.
El 20% de las empresas venezolanas se encuentra en el proceso de adaptar sus procesos tecnológicos a la incorporación de modelos de Inteligencia Artificial (IA) en sus operaciones, según la más reciente edición de la Encuesta Anual de CEOs de PwC aplicada en el país.
«Esto no quiere decir que este 20% ya tenga Inteligencia Artificial corriendo oficialmente en la organización, pero ya se está preparando para, en el futuro inmediato, adoptar estas herramientas», aclara José Miguel Chirinos, partner de PwC de Venezuela en Assurance y Asesor de la cuarta revolución industrial.
En entrevista exclusiva con Banca y Negocios, Chirinos estableció los riesgos y los cambios que, en consecuencia, deberían preceder a una adopción masiva de la Inteligencia Artificial, un modelo tecnológico que plantea interrogantes muy profundas y posibilidades ilimitadas de desarrollo para la propia existencia humana.
«En el mercado ya hay herramientas que, de por sí, tienen inteligencia artificial incorporada y, muchas veces, las organizaciones las ponen en funcionamiento sin siquiera saber que realmente están trabajando ya con inteligencia artificial», explica Chirinos.
«Muchas organizaciones están pasando a servicios en la nube, bien sea como alojamiento de datos, procesamiento de información o de procesos de negocios y resulta que estos proveedores también utilizan inteligencia artificial», advierte el experto.
Para Chirinos, de acuerdo con las respuestas registradas en la Encuesta de CEOs de PwC, en Venezuela existe un nivel de adopción de Inteligencia Artificial mayor al que se reconoce oficialmente.
– ¿En qué áreas funcionales de las empresas está avanzando más rápido la integración de inteligencia Artificial?
– En principio, hay que hacer una diferenciación entre inteligencia artificial predictiva y la inteligencia artificial generativa. Los chatbots, por ejemplo, que existen en instituciones, sobre todo en el área financiera, son herramientas de inteligencia generativa, porque son capaces de entender el lenguaje natural y, a partir de allí, generar una respuesta que no está en una base de datos ni predeterminada.
«La herramienta, con los datos que tiene va procesando continuamente, tiene la capacidad de generar una respuesta individual a cada pregunta que se le hace, a tal punto que, incluso tú puedes hacerle una pregunta hoy y mañana, a la misma pregunta, la respuesta puede ser diferente», indica Chirinos.
Hecha la precisión, el socio de PwC indica que en Venezuela se ha extendido más el uso de Inteligencia Artificial predictiva, especialmente en gestión financiera, atención al cliente, y en otras áreas administrativas.
«Si nos referimos, por ejemplo, el área administrativa financiera podemos observar usos de la inteligencia artificial para predecir el comportamiento del flujo de caja o cómo va a estar el flujo de caja en los próximos 24 meses, con base en los datos que ya están registrados en periodos anteriores. Igualmente, se aplica en procesos de gestión de recursos humanos, especialmente de selección de personal», indica el ejecutivo.
Los riesgos: la Inteligencia Artificial no se debe tomar a la ligera
La Inteligencia Artificial imita los mecanismos de razonamiento del cerebro humano. Por supuesto, no es una imitación perfecta, por lo que, al igual que puede ocurrir con cualquier persona, la IA puede tener sesgos, y un riesgo a tener en cuenta es cómo influyen estas preconcepciones en procesos de selección de personal, por ejemplo.
«La empresa venezolana, como cualquier otra organización global, debe prepararse para enfrentar los riesgos y esta es la principal alerta que debemos dar a los empresarios venezolanos: la opción de la inteligencia artificial no se debe tomar a la ligera, debe haber una preparación previa para poder adoptar esa tecnología», indica Chirinos.
La inteligencia artificial está basada en datos, por lo que se deben revisar los sistemas de gestión de datos de las empresas, porque pudieran no estar bien preparados para que la inteligencia artificial procese adecuadamente la información que proporcionan.
«Si no se tienen las capacidades para asegurarse de que esos datos están bien preparados, la empresa puede enfrentar riesgos, como alucinaciones de la inteligencia artificial. Esto significa que la herramienta puede imaginar respuestas, porque no tiene los datos suficientes o correctos. Entonces, el sistema completa la información a su aire y ofrece una respuesta», insiste el experto.
Y añade: «la inteligencia artificial no tiene una lógica secuencial, sino que se basa en un esquema de redes neuronales o lo que se llama machine learning que simplemente es un módulo que va aprendiendo de los datos».
El partner de PwC de Venezuela en Assurance y Asesor de la cuarta revolución industrial, José Miguel Chirinos, pone un ejemplo concreto: «como auditores, es muy diferente reconstruir un saldo, por ejemplo, de cuenta contable que fue montado con programación tradicional, porque simplemente nosotros simulamos esa programación; pero algo diseñado o generado por inteligencia artificial no tiene un código de programación, sino unos perceptrones de redes neuronales que están aprendiendo y van tomando decisiones».
«Al final generan unos resultados con sus propios recursos. Esta tecnología es algo totalmente diferente de cualquier herramienta tecnológica con la que ya habíamos venido trabajando, porque no tiene una lógica establecida, no está totalmente bajo el control o mando de una persona, sino que tiene su propia vida y genera sus propias respuestas», advierte.
Las redes de cibercrimen
– En términos concretamente de seguridad. ¿Qué riesgos concretos supone la adopción de la inteligencia artificial?
– Existe un gran riesgo delincuencial que es el fraude, porque si yo tengo la mala intención de ejecutar un fraude y tengo acceso a entrenar un modelo de inteligencia artificial, simplemente le doy unos datos sesgados o limitados para influir en la forma cómo va a actuar y con eso se pudieran sobrepasar políticas y procedimientos en la organización, violar regulaciones y todo eso va a ser muy difícil de detectar.
«Los cibercriminales hacen uso de la inteligencia artificial. Cuando uno antes veía, por ejemplo, un correo spam con virus, se buscaban patrones. Siempre había algún error ortográfico o el dominio del correo tenía algún error muy fácil de identificar; pero con la inteligencia artificial es más complejo porque conoce e incluso se puede adaptar perfectamente a la forma de escribir de una persona, o copiar perfectamente una imagen corporativa».
Los protocolos iniciales
– ¿Cómo ayudan ustedes a implantar de manera más segura herramientas de inteligencia artificial?
– Nosotros estamos en estos inicios de la inteligencia artificial generativa. Este es un punto de inflexión de tal naturaleza que, por ejemplo, la ley europea sobre inteligencia artificial estaba a punto de salir en noviembre del 2022 y no se publicó, porque se salió ChatGPT, que vino a cambiar absolutamente todo y esa regulación va a poder salir o está saliendo después de año y medio de existencia de la inteligencia artificial generativa
«Entonces, lo que primero se recomienda la adopción de un marco, de un framework de aseguramiento o de adopción de inteligencia artificial. Esto es lo que llamamos nosotros un marco de responsabilidad», indica Chirinos.
«Lo segundo es ajustar el sistema de control interno, el cual debe adaptarse a este nuevo proceso. Se deben adoptar protocolos para validar y asegurarse de que los modelos de inteligencia artificial están arrojando resultados certeros, razonablemente seguros y tiene que haber un seguimiento, un procedimiento de monitoreo continuo sobre estas herramientas de inteligencia artificial», añade el experto.
Chirinos señala que el marco de responsabilidad de inteligencia artificial tiene diversas aristas que se deben atender, por lo que es indispensable hacer una evaluación y un ajuste del sistema de control interno como preparación para la adopción de esta tecnología.
Los usos más rentables
– ¿Cómo las empresas pueden sacar el mayor provecho de la Inteligencia Artificial?
– Básicamente, en las áreas de mercadeo y experiencia del cliente. La relación de las empresas con los clientes se puede potenciar con un Chatbot. Esa es una experiencia muy diferente y que evidentemente da un mejor resultado. Eventualmente, esos Chatbot pudieran tener conexiones con datos de la organización, como el historial financiero del cliente, así como otros datos administrativos que pudieran facilitar procesos y mejorar el servicio; pero hay que tener cuidado con la seguridad.
Sin embargo, -advierte Chirinos- todas las áreas de la empresa se verán impactadas por la Inteligencia Artificial.
– ¿Es necesaria la aprobación de una ley específica para regular la adopción y utilización de Inteligencia Artificial?
– Yo diría que sí, porque se ha utilizado inteligencia artificial, por ejemplo, en procesos de reclutamiento y selección de personal. En esos procesos pudiera haber datos sesgados y la inteligencia puede dar una respuesta que ya viene presesgada. ¿Por qué viene sesgada? Porque la IA aprende de tus datos o de datos públicos y esos sesgos son las fuentes de aprendizaje de la inteligencia artificial, por lo tanto, aprende cosas y las utiliza de manera que puede ser errónea.
– ¿Cuáles son los aspectos medulares que debe contener esa Ley?
– Primero, obviamente medidas para la prevención de sesgos y luego proteger la confidencialidad de los datos, porque los datos personales y corporativos corren el riesgo de hacerse públicos, debido a que la inteligencia artificial toma datos públicos o privados de manera indiscriminada y muchas veces no controlada, por lo que los puede considerar públicos.
«El tercer aspecto legal es cómo asegurarse de que asuntos relevantes, como la información financiera, se gestionen de manera correcta. Las leyes también deberían establecer procesos de revisión sobre la construcción y la operación de la inteligencia artificial», apunta.
Cambios en los negocios
– ¿Cómo la Inteligencia Artificial va a cambiar la manera de hacer negocios?
– La inteligencia artificial va a cambiar totalmente la manera de hacer negocios. Hace poco salió la Inteligencia Artificial generativa y causó toda una revolución que estamos viviendo hoy en día. Esta es solo la punta del iceberg, porque estas herramientas de inteligencia artificial son, por ahora, de uso específico para algunas áreas, pero la intención es que estos modelos empiecen a conectarse entre sí y, en algún momento, aparezca una inteligencia artificial escalada o general en la que ya todo está conectado.
Esa inteligencia interconectada y con una elevada capacidad de razonamiento propio, podría tomar decisiones autónomas en una dimensión que, por ahora, es muy difícil de predecir.
«Hay riesgos sociales, económicos, humanos porque cambiaría la forma de hacer todo. Yo diría que hoy en día existen sentimientos encontrados sobre la Inteligencia Artificial. Por un lado, abunda un entusiasmo por todo el potencial de la inteligencia artificial. Pero, por otro lado, existe también la precaución de no tener la suficiente confianza para adoptar inteligencia artificial. Aunque esto será inevitable», concluye José Miguel Chirinos, partner en PwC de Venezuela en Assurance y Asesor de la cuarta revolución industrial.