El caso de la IA transparente La incertidumbre sobre lo desconocido impide que los consumidores compren su negocio.
Por Kevin Collins
Este artículo fue traducido de nuestra edición en inglés.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
No puedo entrar en Facebook sin ver magos.
Puedo rastrearlo cuando vi un video de America's Got Talent . Comenzó con cantantes, pero pronto pasó a otras categorías, incluidos los ilusionistas. Eso fue suficiente para decirle a los algoritmos de Facebook que tenía que estar interesado en la magia y que debería mostrarme más de lo que dedujo que quería ver. Ahora tengo que tener cuidado, porque si hago clic en cualquiera de esos contenidos, reforzará la noción del algoritmo de que realmente debo estar interesado en los trucos de cartas, y muy pronto eso es todo lo que Facebook me mostrará. Incluso si todo fue solo una curiosidad pasajera.
Mi experiencia no es nueva ni particularmente única (Eli Pariser nos advirtió sobre las "burbujas de filtro" de las redes sociales en 2011), pero es una ilustración útil de los lugares oscuros a los que un algoritmo puede llevarlo. Puede que me moleste un poco cuando Facebook muestre un video de David Blaine, pero las burbujas de filtro pueden ser francamente peligrosas, convirtiendo plataformas neutrales en caldo de cultivo para todo tipo de ideas desagradables.
¿A dónde van mis datos?
La verdad es que la mayoría de las personas tienen poca comprensión de cómo funciona la IA, solo saben que las computadoras están recopilando sus datos. Y eso puede dar miedo.
¿A dónde van esos datos y quién tiene acceso a ellos? ¿Se está utilizando para mi beneficio o se está aprovechando para venderme cosas y aumentar las ganancias corporativas? Si está ofreciendo un producto o servicio con IA incorporada, estas son las preguntas que harán sus usuarios y clientes. Si alguien te está confiando sus datos, no solo le debes respuestas. Les debes transparencia.
Cuando diseñamos Charli por primera vez, nuestro software que utiliza IA para ayudar a los clientes a automatizar tareas y realizar un seguimiento de todo su contenido y otras "cosas", lo imaginamos como un producto de "disparar y olvidar". En otras palabras, estábamos pidiendo a las personas que entregaran sus datos a Charli y dejaran que la IA se preocupara por ello.
Fue una buena idea, pero pronto nos dimos cuenta de que mucha gente no se siente cómoda con ese enfoque opaco de caja negra. Tienen miedo de ceder el control de su contenido a una máquina, y es comprensible. Se han construido franquicias de películas enteras en torno a este miedo, y aunque The Matrix y The Terminator son ciertamente entretenidos, nadie quiere vivir en ellos de verdad.
Relacionado: Cómo aprovechar la inteligencia artificial en las relaciones públicas
La IA está intrínsecamente sesgada
Dejando a un lado los escenarios de pesadilla de ciencia ficción, queremos programar nuestras máquinas para que aprendan y evolucionen, pero queremos hacerlo de una manera mesurada y predecible. Mi burbuja de filtro de redes sociales llena de magia podría irritarme, pero así es como funcionan los algoritmos hoy en día. Si está construyendo una red de modelos de IA para automatizar un conjunto específico de tareas para sus clientes, probablemente apreciarán el hecho de que la IA ha aprendido lo suficiente sobre ellos para ser confiable. Si, por ejemplo, alguien cuenta con una aplicación para recuperar sus datos cuando los solicita, no quiere sorpresas. Solo quieren que funcione.
Ahí es donde entra el sesgo. Se han escrito todo tipo de estudios y artículos sobre el tema del sesgo en la inteligencia artificial, y ciertamente puede ser un problema, pero el hecho es que la IA está intrínsecamente sesgada. Eso es porque la IA depende de modelos y datos de entrenamiento desarrollados por seres humanos con sus propios sesgos. El sesgo inherente de la IA a menudo funciona en beneficio del usuario, como cuando le permite a la IA aprender cómo trabajar para usuarios individuales, cada uno de los cuales tendrá su propio conjunto de preferencias.
Para ampliar nuestros horizontes, tendremos que introducir la diversidad en la IA, de forma similar a como tenemos que introducir la diversidad en nuestras vidas reales.
Relacionado: Cómo la inteligencia artificial dará forma a nuestro futuro
Darle al cliente un volante
Cambiemos de marcha por un segundo. La era del automóvil totalmente autónomo aún no ha llegado, pero no está demasiado lejos. Hay todo tipo de diseños en proceso, y algunos de ellos ni siquiera tienen volantes.
Hay ingenieros muy brillantes y talentosos trabajando arduamente en estos proyectos, y confío en ellos, hasta cierto punto. Pero si estoy en un automóvil autónomo y algo sale mal, quiero poder agarrar un volante y tirar esa cosa a un lado de la carretera. En resumen, quiero la opción de apagar la IA.
Si quieres que tus clientes te confíen sus datos, dales un volante y ponlos en el asiento del conductor. En nuestro caso, eso significó decirle a nuestra IA que no podía hacer nada con el contenido de un usuario sin antes almacenar ese contenido en Google Drive. De esa manera, el usuario siempre sabe dónde están sus cosas y, en última instancia, siempre tiene el control. Es posible que le otorguen permiso a Charli para acceder a sus datos y automatizar ciertos procesos a su alrededor, pero el usuario también puede ver lo que está sucediendo y tomar el control cuando lo desee.
La inteligencia artificial está avanzada, pero aún se encuentra en las primeras etapas. Ahora estamos rascando la superficie de lo que la IA puede hacer, y estamos muy lejos de encontrar todas las respuestas a los problemas de sesgo y diversidad. Sin embargo, lo que podemos hacer es ofrecer a nuestros clientes transparencia y control sobre sus propias cosas. No hay nada mágico en eso; es un buen negocio.
Relacionado: esta es la herramienta de inteligencia artificial más poderosa del mundo