Artículo de información

José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez

2 de octubre del 2023

La inteligencia artificial (IA) se ha vuelto parte integral de nuestras vidas. Desde asistentes virtuales hasta recomendaciones personalizadas, la IA está transformando la forma en que trabajamos, nos comunicamos y consumimos contenido. Pero, ¿cuáles son las fuentes detrás de esta tecnología en auge y cómo nos benefician en el día a día?

En este artículo exploraremos algunas de las principales fuentes de IA que impulsan avances en áreas tan diversas como atención al cliente, diagnósticos médicos, producción industrial y manejo de finanzas personales. Analizaremos cómo nos facilitan tareas y procesos a través de la automatización, el procesamiento de lenguaje natural y el aprendizaje profundo.

Machine learning

El machine learning o aprendizaje automático tiene sus raíces en el siglo XIX, cuando distintos matemáticos sentaron las bases de esta tecnología con hallazgos como el teorema de Bayes (1812). No fue hasta mediados del siglo XX cuando Alan Turing planteó por primera vez la posibilidad de crear máquinas con «inteligencia artificial», es decir, capaces de replicar tareas humanas de forma autónoma. Poco después, en la década de 1950, científicos como Marvin Minsky y Dean Edmonds crearon las primeras redes neuronales artificiales, modelos computacionales inspirados en el funcionamiento del cerebro humano. Con este experimento lograron que una máquina aprendiera por sí misma a resolver un problema, sentando así las bases del machine learning. Sin embargo, la falta de datos y poder de cómputo de la época limitaron el desarrollo de estos sistemas (Varios, 2023).

El machine learning permaneció estancado varias décadas hasta finales del siglo XX, cuando internet proveía más datos para entrenar modelos y la capacidad de procesamiento de las computadoras aumentaba rápidamente. En 1997 ocurrió un hito: Deep Blue, el sistema de IBM entrenado viendo miles de partidas de ajedrez, logró ganarle al campeón mundial Garry Kasparov. Este logro marcó la resurrección del machine learning gracias al aumento exponencial de datos y potencia computacional disponibles (Varios, 2023).

El machine learning o aprendizaje automático ha tenido un desarrollo histórico marcado por avances y retrocesos. En esencia, es un conjunto de algoritmos informáticos que tienen la capacidad de aprender de los datos y mejorar su desempeño en tareas específicas con la experiencia, sin necesidad de estar explícitamente programados para ello. El aumento exponencial en la disponibilidad de datos y poder de cómputo en las últimas décadas ha permitido el surgimiento del machine learning tal como lo conocemos hoy, con aplicaciones que van desde asistentes virtuales hasta vehículos autónomos. Se trata de una tecnología en pleno auge que está transformando una amplia gama de industrias y áreas del conocimiento humano (Varios, 2023).

Lógica difusa: flexibilidad para manejar la imprecisión

La lógica difusa, también conocida como fuzzy logic, es un modelo matemático desarrollado en la década de 1960 por Lotfi Zadeh que permite trabajar con variables cuyos valores no son binarios de 0 o 1, verdadero o falso, sino que pueden tener valores intermedios de verdad (Bello, 2021).

Se basa en la teoría de conjuntos difusos o borrosos, que determinan el grado de pertenencia de un elemento a un conjunto, no de forma estricta como en la lógica booleana, sino como un continuum. Por ejemplo, la «temperatura alta» puede tomar valores entre 0 y 1, en lugar de ser simplemente verdadero o falso (Bello, 2021).

La lógica difusa permite expresar conceptos imprecisos utilizando etiquetas del lenguaje natural como «frío», «templado» o «calor», y operar matemáticamente con ellas. De esta forma aporta flexibilidad para manejar variables subjetivas muy presentes en nuestra vida cotidiana, modelar sistemas complejos y diseñar controladores eficientes, entre otras aplicaciones. Se utiliza ampliamente en áreas como sistemas expertos, control de procesos industriales, modelado de fenómenos económicos y toma de decisiones (Bello, 2021).

Vida e inteligencia artificial

La vida artificial se define como la biología de la vida posible y busca recrear los fenómenos biológicos, no sólo como son, sino también como podrían ser. Se trata de la creación de vida por el hombre más que del estudio de la vida natural. Sin embargo, para ello primero se requiere comprender cabalmente la vida natural, por lo que actualmente la imitación de la naturaleza es fundamental en el desarrollo de la inteligencia artificial (García Alcolea, 2016).

La inteligencia artificial es un campo que busca crear sistemas y máquinas que se comporten de manera inteligente, imitando procesos como el aprendizaje, razonamiento y autocorrección. Sus orígenes se remontan a la década de 1940 con el desarrollo de la neurona artificial y el test de Turing. En la actualidad, la IA se aplica en medicina para tareas como prescribir medicamentos, analizar resultados de laboratorio y apoyar la toma de decisiones clínicas (García Alcolea, 2016).

Las herramientas de IA como redes neuronales, algoritmos genéticos y autómatas celulares, permiten crear modelos virtuales de la vida a nivel molecular, celular, de organismos y poblaciones. Estos modelos predicen la dinámica de sistemas biológicos y pueden aplicarse para resolver problemas de salud reales, cerrando el ciclo entre las realidades virtual y natural (García Alcolea, 2016).

Sistemas expertos: automatizando el conocimiento humano

Los sistemas expertos son programas de computadora que emulan la capacidad de razonamiento y conocimiento de un experto humano en un dominio particular. Capturan el conocimiento y las heurísticas de expertos para luego aplicarlos a la resolución de problemas, consultas y toma de decisiones. Fueron desarrollados en los años 60 y 70, y desde entonces se han aplicado en numerosos campos como la medicina, el derecho, las finanzas y la ingeniería (Sebastián Badaró, 2013).

Existen distintos tipos de sistemas expertos, como los basados en reglas, en redes bayesianas, en casos previos, en lógica difusa, entre otros. Todos comparten componentes clave: una base de conocimiento que contiene hechos, reglas y procedimientos del dominio; un motor de inferencia que aplica el conocimiento a nuevos datos; y una interfaz de usuario para consultar el sistema . Entre sus principales ventajas se encuentran la estandarización de procesos, la preservación del conocimiento experto y la posibilidad de ser consultados por personal no especializado (Sebastián Badaró, 2013).

Si bien tienen limitaciones para resolver problemas complejos y generales, los sistemas expertos se han consolidado como una tecnología madura y confiable para automatizar el conocimiento humano en dominios acotados. Sus aplicaciones en la ciencia y la industria siguen en expansión (Sebastián Badaró, 2013).

Data Mining o minería de datos

El minado de datos, también conocido como Data Mining, es el conjunto de técnicas y tecnologías que permiten explorar de forma automática grandes conjuntos de datos para encontrar patrones repetitivos y extraer conocimiento. Surgió en los años 60 ante la necesidad de comprender la creciente cantidad de datos y poder usarlos para mejorar el crecimiento de negocios (Bello, Ieb school, 2021).

La minería de datos busca en bases de datos y almacenes de datos patrones ocultos que puedan explicar el comportamiento de los datos y predecir tendencias futuras. Utiliza técnicas como la clasificación, agrupación, asociación y predicción, entre otras. Permite descubrir información oculta y transformar los datos en activos de valor para apoyar la toma de decisiones. Sus aplicaciones se expanden a campos como marketing, detección de fraude, salud, finanzas y más (Bello, Ieb school, 2021).

Aunque la minería de datos y el big data suelen confundirse, no son lo mismo. Mientras que el big data provee la capacidad de manejar grandes volúmenes de datos, el Data Mining analiza esos macrodatos para extraer patrones de valor para un negocio. Ambos son esenciales para capitalizar datos (Bello, Ieb school, 2021).

En conclusión

La inteligencia artificial ha tenido un desarrollo fascinante en las últimas décadas, pasando de ser un campo teórico a una tecnología integrada en nuestra vida cotidiana. Técnicas de IA como el aprendizaje automático, la lógica difusa y los sistemas expertos se aplican hoy en una amplia variedad de áreas, desde asistentes virtuales hasta vehículos autónomos.

Si bien la IA aún tiene limitaciones importantes, como la dificultad para manejar el sentido común y la creatividad humanas, los constantes avances en capacidad computacional, disponibilidad de datos y algoritmos inteligentes sugieren un futuro prometedor. Lo que está claro es que la inteligencia artificial ya es parte integral del presente tecnológico y su papel seguirá en aumento. El reto está en desarrollarla y usarla de forma ética, para el bienestar humano.

Referencias

Bello, E. (15 de Diciembre de 2021). Ieb school. Obtenido de Lógica Difusa o Fuzzy Logic: Qué es y cómo funciona + Ejemplos: https://www.iebschool.com/blog/fuzzy-logic-que-es-big-data/

Bello, E. (20 de Diciembre de 2021). Ieb school. Obtenido de ¿Qué es el minado de Datos o Data Mininig? Técnicas y pasos a seguir: https://www.iebschool.com/blog/data-mining-mineria-datos-big-data/

García Alcolea, E. E. (2 de Enero de 2016). Scielo. Obtenido de Vida e inteligencia artificial: http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1024-94352009000100006

Sebastián Badaró, L. J. (2013). Sistemas Expertos: Fundamentos, Metodologías y Aplicaciones. Ciencia y Tecnología, 349-364 .

Varios. (23 de Mayo de 2023). BBVA. Obtenido de ‘Machine learning’: ¿qué es y cómo funciona?: https://www.bbva.com/es/innovacion/machine-learning-que-es-y-como-funciona/