Aplicación de la IA en Latinoamérica debe tomar en cuenta la multiculturalidad de la región
Aplicación de la IA en Latinoamérica debe tomar en cuenta la multiculturalidad de la región
La inteligencia artificial debe trabajarse sobre normas éticas para tomar en cuenta una serie de condiciones relacionadas a la brecha digital existente en la región Latinoamericana y temas culturales específicos de cada país. Juan Fernando Mancilla, participó en el evento Converciencia 2023, un evento de la Secretaría Nacional de Ciencia y Tecnología (Senacyt), en el cual abordó la importancia de la ética en la inteligencia artificial para los países de la región.
Mancilla, ha trabajado para compañías como Microsoft, IBM Research y Samsung, explicó que el uso de las tecnologías representa un importante avance, pero siempre debe verificarse la veracidad de los resultados.
El experto afirmó que para la aplicación de la IA en la región es esencial tomar en cuenta las particularidades que pueden resultar vulneradas como la alta diversidad étnica, racial, cultural, educativa y económica derivado de los sesgos con los que son entrenados los algoritmos, que dan como resultado entendimientos de relaciones nocivas.
Para Mancilla, existen tres categorías generales de los retos de acuerdo con entendimiento de la IA. La primera categoría es sobre cómo es entrenada, sus implicaciones sociales en nuestras comunidades.
La segunda sobre entender estos retos desde perspectivas culturalmente diversas, ya que es esencial garantizar que las soluciones de IA desarrolladas en Latinoamérica tengan en cuenta la diversidad cultural, lingüística y étnica de la región. Por último, explicó que existen retos que se presentan debido a la diferencia de oportunidades entre los creadores de IA y sus consumidores, el poco acceso a recursos educativos en el tema y la sobre generalización de los patrones culturales, es decir la brecha digital en términos de acceso a la tecnología y habilidades digitales, garantizar que la implementación de la IA no profundice las desigualdades existentes, para que sea inclusiva y accesible para toda la sociedad.
Concluyó en que la IA brinda tecnologías como ChatGPT que nos dan una falsa confianza, porque erróneamente nos hace querer sentir que es una verdad, pero olvidamos que hubo decisión humana para entrenarla que puede generar relaciones nocivas que perjudican poblaciones vulnerables.