Sundar Pichai, CEO de Google y Alphabet habló en un artículo del Financial Times sobre la necesidad de crear regulaciones para el uso de la inteligencia artificial (IA) en dispositivos tecnológicos con el fin de prevenir futuros peligros en su uso, equilibrar daños potenciales, sin olvidar generar oportunidades sociales.
“Las empresas como la nuestra no pueden simplemente construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo se utilizará, es importante para nosotros asegurarnos de que la tecnología se aproveche para bien y esté disponible para todos“, expresó Pichai.
La observación de Pichai plantea medidas flexibles como la introducción de nuevas reglas para los vehículos autónomos o la extensión de los marcos de funcionamiento en el área de cuidados de la salud para introducir productos asistidos con inteligencia artificial, sin embargo, aún no tiene claro cómo abordar el tema en otro tipo de tecnologías como la de reconocimiento facial.
El CEO de Alphabet considera complicado que las empresas tecnológicas internacionales como las que preside puedan crear regulaciones para el uso de IA, debido a la discrepancia existente entre Estados Unidos y la Unión Europea respecto a este tema.
Por su parte, el bloque europeo considera una regulación estricta como la prohibición de reconocimiento facial por cinco años en áreas públicas para evaluar los impactos de esta tecnología, crear medidas de gestión de riesgos y designar, imponer obligaciones a desarrolladores y usuarios y obligar a los países a designar autoridades que monitoreen el cumplimiento de las reglas, en Estados Unidos las pretensiones son más ligeras.
Estados Unidos ha planteado un enfoque regulatorio más relajado y basado en la no intervención, donde, según la Oficina de Política de Ciencia y Tecnología (OSTP, por sus siglas en inglés), las agencias federales encargadas de la creación de las leyes y normas para el uso de la IA deben fomentar cualidades como justicia, no discriminación, apertura, transparencia, seguridad y protección; sin dejar de lado la evaluación de riesgos y análisis de costo beneficio sin desalentar la innovación.
Finalmente, Pichai consideró que para Google y las instancias gubernamentales, encontrar el equilibrio entre la utilidad y las amenazas de las tecnologías asistidas con inteligencia artificial como la vigilancia masiva y violación a derechos humanos es un tema sin oportunidad de posponerse por mucho tiempo y tendrá que reflejarse en acciones, pues señala “los principios que permanecen en el papel no tienen sentido“.
Notipress