La IA Generativa promete impulsar el mercado global de software y la infraestructura de
centros de datos, pero su implementación requiere una política responsable y ética.
Las empresas latinoamericanas deben considerar cuidadosamente la transparencia, equidad y
seguridad al desarrollar políticas de IA Generativa para aprovechar las oportunidades
emergentes en el campo tecnológico.
La Inteligencia Artificial (IA) es una de las tecnologías más disruptivas y prometedoras en el mundo
empresarial actual. En particular, se proyecta que la Inteligencia Artificial Generativa (Generative AI, o
GenAI como se viene popularizando en inglés), contribuirá significativamente al crecimiento del
mercado global de software empresarial y la infraestructura de centros de datos GenAI.
En este contexto, Goldman Sachs ha proyectado que los desarrollaos sobre GenIA contribuirán con
US$150 mil millones al mercado global de software empresarial, estimado en unos US$ 685 mil millones.
Asimismo, las inversiones en infraestructura y servicios de centros de datos GenAI, alcanzarán los US$
76 mil millones para 2028, según los analistas de Tirias Research.
En este contexto de oportunidades emergentes, es esencial que las empresas de América Latina
aborden el desarrollo de una política de IA de manera responsable y ética.
Consideraciones ante una política de GenAI en la empresa
La primera consideración al crear una política de IA en una empresa es reconocer que la IA no es un
dominio tecnológico independiente. Por el contrario, está intrínsecamente conectada con áreas
cruciales como la privacidad, los datos, la nube y la seguridad. Por esta razón, es fundamental que
cualquier política de IA tenga en cuenta sus dependencias e impactos en otras áreas del negocio. La
política de IA debe estar alineada con otras políticas corporativas y nunca debe ser creada en un vacío.
En este sentido, es crucial que los líderes de TI estén al tanto de lo que ocurre en la industria y en los
esfuerzos de políticas gubernamentales y empresariales en discusión, para garantizar que las
implementaciones de la IA sean pertinentes y adaptadas a las últimas tendencias y desarrollos
tecnológicos. La IA es un campo en constante evolución, por lo que la colaboración con expertos y
compañías líderes en el ámbito de la IA es esencial para mantenerse al día con las mejores prácticas y
enfoques actualizados.
Una de las claves para desarrollar una política de IA responsable es la transparencia. La confianza del
usuario es fundamental en el éxito en uso y desarrollo de aplicaciones basadas en las tecnologías de IA.
Por lo tanto, es necesario implementar medidas que aumenten la transparencia de las soluciones de IA.
Entre estas medidas se encuentran el uso de marcas de agua u otros indicadores identificativos para
mostrar claramente el contenido generado por IA, así como la creación de un "listado de materiales de
IA" que describa de manera transparente los modelos, datos y componentes tecnológicos utilizados en
este tipo de sistemas.
Además, promover la colaboración en ecosistemas abiertos es esencial para evitar resultados no
deseados y asegurar una mayor supervisión y control. Al incluir a la academia en los esfuerzos de IA
privados, se pueden establecer controles y equilibrios adicionales para garantizar la equidad y evitar
sesgos injustos.
Es importante destacar que el trabajo de IA debe realizarse de manera segura y responsable,
especialmente cuando los sistemas de IA interactúan con el mundo físico. La inclusión de mecanismos
de seguridad para evitar comportamientos inesperados y garantizar la protección de los usuarios es un
paso fundamental en la política de IA.
En el caso de Dell Technologies, nuestro enfoque en IA es tanto de innovación como de excelencia
empresarial. Nos esforzamos por mantener los más altos estándares de protección de datos,
regulaciones y propiedad intelectual en el contexto de casos de uso empresarial. Alentamos a nuestros
equipos a aprovechar las herramientas basadas en IA, pero siempre con responsabilidad y comprensión
de los límites y riesgos asociados.
En conclusión, el desarrollo de una política de IA en las empresas de América Latina debe ser un proceso
colaborativo y ético. La transparencia, la equidad, la seguridad y la responsabilidad son fundamentales
en este enfoque. Al adoptar un enfoque responsable hacia la IA, las empresas de la región podrán
aprovechar todo el potencial de esta tecnología transformadora mientras se protegen los intereses y
valores de sus usuarios y la sociedad en general. Como líderes de TI, tenemos la responsabilidad de guiar
este proceso y asegurarnos de que la IA trabaje en beneficio del progreso humano.
Comments