Hace muy poco me topé con un comentario en la red social interna de una empresa, en el que se mencionaba que las AI y los diferentes modelos de Machine Learning, eliminarían dudas y convertirían todo en certezas. ¿Eres tú de esa misma opinión? Yo tengo mis dudas:
Si hablamos de entornos analíticos, evidentemente podríamos llegar a algún punto donde se tomen decisiones de forma automática basadas en ciertos grados de confiabilidad o probabilidad de recomendaciones hechas por algún sistema de Machine Learning o AI. Y aun así, habrá ciertas tipologías de decisión que tendrán siempre que tener el consentimiento humano, individual o grupal, para ejecutar la recomendación. ¿Y por qué tener ese punto de control o activación humano cuando puede automatizarse? Intuición…. No. No digo que sea intuición mía. Será porque hay ciertos elementos intrínsecos a la condición humana que hoy por hoy no se vislumbra que puedan ser replicados por Machine Learning o algún tipo de AI: la duda, la curiosidad, la intuición…
Sí… podríamos emular algo parecido a “dudar” cuando la lista de elementos de respuesta de una Machine Learning no supere un umbral determinado, pero no sería la duda humana. Sería una representación humanizada de una distribución estadística.
Podríamos decir que alguna AI puede intuir una decisión a tomar, dado que la inmensa cantidad de variables que puede manejar y evaluar en micro-segundos se aleja de nuestras capacidades humanas, y vendría a estar más cerca de nuestra “intuición” que de lo que consideraríamos un proceso de razonamiento lógico.
Pero no. No me refiero a eso. Me refiero a modelos de aprendizaje que le lleva al ser humano a crecer:
¿Qué le lleva a un niño a meter un juguete en un enchufe? ¿Cómo procesa la información un niño desde bebé a la edad adolescente, para formar su visión del mundo que tendrá de adulto?
¿qué impulsa a un ser humano a jugarse la vida en condiciones extremas subiendo a las cumbres más altas o sumergirse en las fosas marinas más profundas?
¿Cuántos descubrimientos y avances se han producido precisamente por errores en determinadas pruebas o experimentos? ¿Hubiera una AI descubierto ahí un posible nicho para un avance, descubrimiento o producto, o simplemente hubiera desechado el elemento como erróneo al no ser los resultados esperados objetivo del experimento?
[11 descubrimientos por accidente, en ingles]
En definitiva, me gusta creer (y lo hago firmemente) que las futuras AI y sus Machine Learning subyacentes, van a facilitar la vida a la humanidad enormemente en años venideros, pero habrá componentes intrínsecos al ser humano que serán imposibles de replicar, entre ellos, la duda, la curiosidad, la intuición.
No soy el único que piensa así, así que hay ya gente trabajando en dotar a las AI con estas características humanas…. aquí os dejo el link: Un algoritmo informático ha recibido el don de la curiosidad artificial
¿Y tú, qué piensas…? Déjame un comentario y tendremos un debate interesante, seguro.