Por Radamés Larrazábal / Prensa

Aristóteles en 350 a.C. habló por primera vez sobre un conjunto de reglas que describen el mecanismo de la mente para obtener conclusiones racionales. Ctesibio en 250 a.C. construyó la primera máquina auto controlada, una bomba de agua (racional pero sin razonamiento). Veintiún siglos después Elon Musk y Nick Bostrom advierten sobre los riesgos de la inteligencia artificial contra un optimista Zuckerberg que lo apuesta todo a ella. ¿De qué nos estamos perdiendo?

El concepto de Inteligencia Artificial (IA) entendida como la facultad de un artefacto (provista por un ser humano), de razonar y realizar otras actividades propias del ser humano existe desde 1956 cuando John McCarthy, Marvin Misky y Claude Shannon lo mencionaron por primera vez en la legendaria conferencia de Darthmounth.

Una definición más técnica de IA señalaría específicamente a algoritmos expresados en programas que corren sobre un hardware que intenta emular el funcionamiento del cerebro del hombre; esto sería: percibir, procesar, inferir y llegar a conclusiones propias (no pre programadas).

De Alan Turing a IBM Watson

Si bien el concepto data de 1956, la idea es introducida en la comunidad científica por Alan Turing[1] (reconocido como el padre de la IA) en 1950 con el  artículo “Maquinaria Computacional e Inteligencia” publicado por la revista Mind. Desde entonces comenzó la carrera por eliminar la distinción entre inteligencia natural e inteligencia artificial diseñando computadoras que imiten el funcionamiento del cerebro humano, inicialmente, en procesos de reconocimiento de patrones visuales, luego en el lenguaje, después en los aspectos no-verbales y por último en las representaciones mentales del conocimiento.

“La inteligencia artificial está transformando la forma de trabajar de las empresas, así como nuestra manera de interactuar con el mundo”
Diane Bryant
Vicepresidenta ejecutiva y directora general del Data Center Group de Intel

La IA ya no es sólo el tema de películas futuristas o post apocalípticas, la vemos a diario en procesos tan triviales como el etiquetado de fotografías en las redes sociales hasta en aspectos vitales como la medicina de alta precisión o los vehículos autónomos.

IBM Watson[2] sería por mucho la referencia obligatoria a IA en la actualidad, al menos en sistemas cognitivos, procesamiento de lenguajes naturales y el razonamiento, así como el aprendizaje automático, y aunque no monopoliza el tema de la inteligencia artificial, sí está marcando la pauta a seguir en tratamientos clínicos, desarrollo del e-commerce, ciberseguridad y banca.

Más recientemente el surgimiento de asistentes virtuales como Siri dieron inicio al aprendizaje automático. En 2012, los asistentes virtuales apoyados en IA con algoritmos de aprendizaje profundo Google Now y Cortana marcarían el comienzo de la segunda generación de inteligencia artificial.

Lo que NO ES la inteligencia artificial

Al día de hoy no se puede hablar con propiedad de  una inteligencia artificial de tipo general, sino de “inteligencias artificiales especializadas”. El motivo es técnico pues, aún no hay equipos con capacidad suficiente para soportar el volumen de cálculo necesario que lleve a cabo todas las tareas de una inteligencia artificial general, para esto vendrá en auxilio la computación cuántica[3].

Un ejemplo de inteligencias artificiales especializadas son los programas de ajedrez, o también los sistemas expertos que analizan, observan y predicen datos concretos como en la bolsa de valores. “La IA hoy son máquinas extraordinarias jugando al ajedrez, pero que no saben nada de las damas o el parchís. Las IA especializadas son un buen negocio, y estoy a favor de ellas.” (Ramón López de Mántaras[4] Director del Instituto de Investigación en Inteligencia Artificial (IIIA).

Por otro lado están quienes opinan que esto que llamamos inteligencia artificial no es tal cosa. “Acumular y procesar datos. Encontrar patrones. Aprender del usuario. Eso que comúnmente denominamos IA es en realidad aprendizaje automático: máquinas que aprenden por sí solas y resuelven problemas” (Greg Corrado.[5] Científico Principal, Director de Investigación de Inteligencia Aumentada, Google Inc.).

No obstante Mark Zuckerberg, asegura que ya utilizamos recursos de IA, como los que analizan información de las redes sociales para localizar al mejor grupo de amigos, o hallar la vía más expedita para llegar a un sitio como lo hacen GoogleMaps o Waze. Esto y tecnologías avanzadas como big data, que almacena cantidades ingentes de información y la procesa con algoritmos muy complejos nos dejan saber que -como mínimo- vivimos un período de cambio transcendental.

Y como en todo punto de viraje existen precursores y detractores. Elon Musk ha llamado a la IA “una nueva y formidable amenaza”, su preocupación se centra en la velocidad con que esta avanza, y la compara incluso con los maletines nucleares, mientras que el filósofo británico Nick Bostrom asegura que esta supone un riesgo existencial para la humanidad pues, a corto plazo las máquinas reemplazarían definitivamente a las personas en el campo laboral.

Del etiquetado de fotografías a la medicina de alta precisión. La #InteligenciaArtificial nos rodea.… Clic para tuitear

Lo cierto y constatable, al menos en el presente, es que la IA se presenta como una tecnología clave para la transformación digital empresarial, y tal como el Internet de las Cosas, Cloud o Big Data, en Kruger se está innovando con el uso de estas nuevas tecnologías para acelerar el proceso de transformación digital de las organizaciones pues, la IA permite conocer los patrones de consumo o uso de la sociedad, se optimizan procesos y se impulsan los nuevos modelos de negocio mejorando así el perfil de productividad y el valor de las empresas.


[1] Los fundamentos teóricos de la IA se encuentran en el experimento que propone en el artículo “Maquinaria Computacional e Inteligencia”. Este artículo pasó a denominarse Test de Turing. Si una máquina podía aprobar el test se podía considerar que sería capaz de pasar por un humano en una charla ciega. Esta prueba se sigue empleando hoy y es objeto de investigaciones científicas como nunca antes lo fue. [2] Watson es una computadora diseñada para aprender con las interacciones con el usuario. Mientras trabaja acumula información, por lo que cada vez más puede interactuar con el lenguaje humano de forma natural. [3] La computación cuántica implica un paradigma distinto al clásico. Es una forma completamente distinta de procesar la data fundamentada en el uso de qubits en lugar de bits que posibilita la creación de nuevos algoritmos. [4] Mántaras, L. (5 DE FEBRERO DE 2016). Lo que no sabías de la Inteligencia Artificial. Recuperado de: https://www.am.com.mx/2016/02/05/leon/tecnologia/lo-que-no-sabias-de-la-inteligencia-artificial-260857 [5] Corrado, G. (12 de febrero de 2017). El cerebro artificial que piensa por ti. Recuperado de: http://elpaissemanal.elpais.com/documentos/la-inteligencia-artificial/