A medida que la Inteligencia Artificial (IA) se integra cada vez más en nuestra vida cotidiana, aumentan las preocupaciones sobre sus posibles sesgos. Un área de especial preocupación son los sesgos, incluyendo el sesgo racial, que pueden generar resultados desiguales en áreas como el empleo, la justicia penal y la atención médica. El viernes 14 de abril del 2023, la Escuela de Salud Pública de la Universidad de Harvard en Boston fue el escenario de un panel de discusión titulado “AI and Bias (including Racial Bias)”, el cual se traduce en español como: IA y Sesgo (incluyendo Sesgo Racial).
El Dr. Juan Luis Santana Guerrero, estudiante de la Maestría de Salud Pública en Epidemiología de la Escuela de Salud Pública de Harvard, fue invitado por Harvard para ser moderador del panel de discusión, realizada exclusivamente de manera presencial, como parte de la conferencia Health Equity and Leadership (HEAL) Conference 2023 (Conferencia de Equidad y Liderazgo en Salud (HEAL) 2023) para explorar las formas en que la IA puede perpetuar sesgos raciales, como también de género, estatus socioeconómico, entre otros sesgos. El objetivo de la discusión fue arrojar luz sobre este tema crítico y fomentar una mayor comprensión del papel que desempeña la IA en la configuración de nuestra sociedad e inspirar la acción para crear sistemas más equitativos y justos.
Durante la discusión, los panelistas Dra. Dania Daye, Dr. Synho Do, Dr. Bernardo Bizzo del Massachusetts General Hospital y Harvard Medical School como también el panelista Dr. Santiago Romero-Brufau de la Escuela de Salud Pública de Harvard y Mayo Clinic, exploraron varios aspectos de la IA y el sesgo, incluyendo el impacto potencial de los sistemas de IA con sesgos en diferentes comunidades, la importancia de diversidad en el desarrollo de la IA, como también las consideraciones éticas que deben tenerse en cuenta al desarrollar e implementar sistemas de IA, y la necesidad de transparencia y responsabilidad en los sistemas de IA. Además, la educación puede desempeñar un papel vital en la mitigación del sesgo en los sistemas de IA, y los marcos legales pueden ayudar a regular los sistemas de IA para garantizar la equidad y la igualdad. Al abordar el sesgo en los sistemas de IA, se puede crear una sociedad más equitativa y justa para todos.
No te pierdas una noticia, suscribete gratis para recibir DiarioSalud en tu correo, siguenos en Facebook, Instagram, Twitter, Linkedln, telegram y Youtube