Publicidad

EL 55 % de empresas en Colombia ya está implementando la IA

Pese a ello, muchas no están preparadas para enfrentarse a los posibles riesgos.

Foto: MF3d
WhatsApp

La inteligencia artificial (IA) está revolucionando la tecnología. Cada vez se desarrolla y adapta más rápidamente para responder a las necesidades de diferentes ámbitos a nivel global. Con la idea de tener un mayor impacto económico y social, además de estar a la vanguardia del mercado, varias organizaciones en el mundo han optado por incorporar y adecuar la IA a sus necesidades. Colombia, en este caso, no se queda atrás. Según el informe realizado por PwC Colombia, titulado Inteligencia artificial responsable: madurando de la teoría a la práctica, en el que aplicó una encuesta a diferentes organizaciones en el país, se evidenció que el 55 % de estas organizaciones usan la IA en sus negocios.

Esta tecnología se ha convertido en una herramienta que apoya a empresas de diferentes sectores a impulsar la productividad, el análisis de datos y la toma de decisiones, pero así como puede generar beneficios, también trae consigo riesgos que se pueden materializar en aspectos relacionados con su aplicación (rendimiento, control y seguridad) y a nivel empresarial, social y económico.

De acuerdo con lo anterior, estos riesgos varían según la industria en la que la IA se utilice, tal y como lo resalta Mauricio Arias, socio de Consultoría en Tecnología de PwC Colombia, quien afirma que: “es claro que los riesgos de la IA dependen de su contexto de aplicación, ya sea por el tipo de datos que se van a usar, las técnicas o el tipo de decisiones que se toman para su ejecución, lo importante aquí es ser conscientes de que estos riesgos hay que evaluarlos, monitorearlos y mitigarlos”.

Más que solo desarrollar con rapidez la IA, también deben tenerse en cuenta las diferentes consecuencias que puede traer, pero ¿esto es algo que consideran las empresas en el país? Según el informe, el 22 % de las organizaciones encuestadas prefiere enfocarse en innovar con rapidez, antes que hacer una aproximación más rigurosa que cubra los riesgos asociados, mientras que el 78 % busca un balance entre la innovación y la gestión de los riesgos.

¿Por qué se hace relevante hablar de una IA responsable?

Con el avance y constante adaptación de la IA, se ha identificado que uno de los riesgos en su uso no controlado ha sido la creación de textos, imágenes y videos con contenido falso, así como el aprovechar la tecnología para lograr estafas y robos, entre otros riesgos, en diferentes niveles que no permiten distinguir lo real de lo que no lo es.

A lo anterior se suma la preocupación de personajes reconocidos de la industria como Geoffrey Hinton, uno de los pioneros de la IA, quien advierte los peligros de esta tecnología, o líderes tecnológicos que piden que se dé una pausa a su desarrollo, como Steve Wozniak y Elon Musk, debido al peligro que podría suponer para la sociedad. Aun así, esto no ha detenido la idea de seguir avanzando en el desarrollo de esta tecnología. Por ello, se hace relevante pensar en su desarrollo de una forma responsable.

Ahora bien, cabe resaltar que las preocupaciones no solo se centran en una idea social de que la tecnología vaya a “dominar” al ser humano o incluso a reemplazarlo, sino también se extienden a la consideración del riesgo de que se puedan filtrar o perder datos sensibles, ya que esta tecnología necesita acceso a la información para poder automatizar sus funciones y hacer el trabajo para el que está programada. Es aquí cuando entran las organizaciones a demostrar qué tan preparadas están para manejar y proteger los datos.

Para tal fin, se hace pertinente pensar en un sector específico que pueda identificar riesgos emergentes, además de los incidentes en desarrollo y despliegue, como lo menciona Mauricio Arias: “es recomendable contar con un gobierno corporativo, que se encargue de supervisar funciones, responsabilidades y requisitos, y proporcione trazabilidad y evaluación continua, que le permita a la organización anticiparse a futuros requerimientos. Esto también generará confianza en su desarrollo e implementación, de ahí, que pensemos en una IA responsable, en la que primero verifiquemos que los beneficios que resultan del desarrollo de esta tecnología superen los posibles impactos que puedan generar en la sociedad. Para ser efectivos y confiables, los sistemas de IA necesitan ser resilientes y seguros”.

Resumidamente, la idea de implementar la IA responsable se basa en desarrollar la tecnología de forma transparente y ética, teniendo presente el bien común, las necesidades del negocio y la seguridad de la información, que permita mantener la confianza tanto para los empleados como para los clientes.