La inteligencia artificial complementa las herramientas TIC para las personas con limitaciones visuales
En la biblioteca Luis Ángel Arango, de Bogotá, más de 100 personas asistieron a un encuentro convocado por el programa ConVerTIC, para que las personas con discapacidad visual aprendan a aprovechar la inteligencia artificial en su vida diaria.
La inteligencia artificial (IA) llegó para quedarse, trayendo mejores opciones en todos los campos. Por ejemplo, Jaws y ZoomText, dos programas para que las personas ciegas o con baja visión maximicen las funcionalidades de su computador para la inclusión laboral, educativa y social, pueden combinarse con la IA para generar nuevas oportunidades para esta población.
Ese fue uno de los propósitos del encuentro que realizó Convertic el pasado viernes 15 de noviembre en la biblioteca Luis Ángel Arango de Bogotá. Allí, varios expertos les explicaron a estudiantes de colegios, profesionales, amas de casa, empleados, emprendedores y personas ciegas y con baja visión, cómo pueden integrar la inteligencia artificial a los softwares mencionados.
Helmuth Mauricio Gallego, presidente de Soluciones Integrales Ver, fue el encargado de dar la apertura al evento.Durante la instalación, aseguró que: “Quien sepa utilizar la inteligencia artificial y quien tenga la tecnología adecuada para ello, va a poder hacer su labor con muchísima más eficiencia y total productividad. Afortunadamente, nosotros tenemos Jaws y ZoomText, a través de la licencia Convertic, porque son la única herramienta hoy en día que garantiza a las personas ciegas y con baja visión, la capacidad real estudiar y trabajar en condiciones de plena igualdad”, explicó Gallego a alrededor de 100 personas que asistieron a la capacitación.
Convertic es el programa del Ministerio TIC enfocado a mejorar la vida de las personas con discapacidad visual a través de la tecnología.
IA combinada con Jaws
Para las personas que tienen el sentido de la visión en condiciones normales, no sería raro apreciar un plato de carne asada. Pero para los asistentes al evento, fue muy novedoso, incluso muy aplaudida, escuchar la descripción que hicieron las inteligencias artificiales Chat GPT y Claude integradas al programa Jaws, para contarles a ese centenar de hombres y mujeres con lujo de detalles el color de la carne, cuántas franjas y marcas color caramelo tenía, cómo era la ensalada que servía como complemento y otras características de ese plato de comida.
Esta tarea fue expuesta por Norbey Salazar, comunicador de Convertic experto en Jaws, programa que maneja a través de comandos especiales de computador, y que explicó al público. Él, también con limitación visual, mostró que hay un sinnúmero de soluciones para obtener explicaciones sonoras de todas las fotos que guarda en su laptop. Fotos recibidas por WhatsApp, imágenes del sistema circulatorio humano y representaciones de comida, como la ya mencionada, fueron algunos de los ejemplos que usó en su explicación, para demostrar que la información fotográfica que llega a los celulares y correos electrónicos puede ser provista de una descripción clara, lo que a la postre sirve para acceder a más información.
Desde la parte técnica y de características, Salazar explicó al auditorio que para poder integrar programas como Chat GPT es necesario que las personas ciegas tengan un computador de escritorio con acceso a internet y una versión de Jaws de 2024 y 2025. Además, fue muy enfático en afirmar que con las descripciones de las imágenes que se logran a través de la unión de estos dos softwares, se simplifica y complementa la vida personal, académica y laboral de quienes lo aprenden a usar.
‘Be my eyes’, otra IA para beneficio de las personas ciegas
‘Be my eyes’ (sé mis ojos, en español) es otra aplicación mencionada en la capacitación. De acuerdo con su página web, fue creada para ayudar a personas ciegas o con problemas de visión, y está compuesta por una comunidad global de ciegos, personas con problemas de visión y voluntarios sin discapacidad visual. Esta solución une la tecnología y la conexión humana para llevar la vista a las personas con pérdida de visión.
Cuando una persona ciega o con déficit visual solicita ayuda a través de ‘Be My Eyes’, la aplicación envía una notificación a varios voluntarios. Luego, se dedica a emparejar al ciego o persona con déficit de visión con un voluntario sin discapacidad visual en función de su lengua y zona horaria.
El primer voluntario en responder a una petición es conectado con el usuario y recibe el video en directo de la cámara trasera del teléfono. La conexión de audio permite al solicitante y al voluntario resolver juntos la tarea.
Una voz de satisfacción
Diana Moreno llegó antes de las 8:00 a.m. a la biblioteca Luis Ángel Arango. Con un bastón, unas gafas oscuras y de la mano de un guía que la llevó hasta el salón de conferencias, dijo tener mucha expectativa por la capacitación.
Muy atenta a las explicaciones de los expertos, al final manifestó su complacencia por los avances y ayudas que brindan las herramientas de ConVerTIC. Graduada como abogada de la Universidad Sergio Arboleda, ella dice que todas esas soluciones le están facilitando su labor para leer sentencias, buscar jurisprudencia y proyectar respuestas jurídicas para sus clientes, lo cual, además, lo realiza desde su casa.
Al final de la charla, los asistentes insistieron en la importancia de Jaws (lector de pantalla) y ZoomText (magnificador de pantalla) como herramientas tecnológicas clave para que las personas ciegas, y/o con baja visión, accedan a más información y a soluciones de la inteligencia artificial.
No en vano, más de un millón de personas se benefician de ConVerTIC, que genera una verdadera inclusión en un entorno digital adaptado a sus posibilidades.
Descarga de softwares disponible en: www.convertic.gov.co