Historia del aprendizaje automático: La línea de tiempo completa

9 de septiembre de 2022

Blog de la historia del aprendizaje automático de Startechup

Un hecho trascendental que puso el foco en el aprendizaje automático fue en 2016 cuando La IA AlphaGo de Google DeepMind hizo historia al derrotar a uno de los mejores jugadores de Go del mundo. Al ser un juego de mesa complejo que requiere una gran intuición y pensamiento abstracto, mucha gente se sorprendió al saber que las máquinas pueden pensar como los humanos.

Los algoritmos de aprendizaje automático se han vuelto omnipresentes hoy en día, impulsando todo, desde los motores de búsqueda hasta los coches autodirigidos. Pero, ¿cómo empezó todo esto?

En este blog, exploraremos la línea de tiempo completa de la historia del aprendizaje automático. ¡Empecemos!

Tabla de contenidos

1943 - El primer modelo matemático de una neurona biológica

Presupuesto de aprendizaje automático de Startechup

Walter Pitts y Warren McCulloch crearon el primer modelo matemático de redes neuronales en 1943. Su artículo científico, "A Logical Calculus of the Ideas Immanent in Nervous Activity", se utilizó para crear algoritmos que imitan los procesos del pensamiento humano.

Esta Neurona McCulloch Pitts tiene una capacidad muy limitada y no tiene ningún mecanismo de aprendizaje. Sin embargo, fue el verdadero punto de partida de la disciplina moderna del aprendizaje automático y más tarde abrió el camino al aprendizaje profundo y al aprendizaje automático cuántico.

1949 - La sinapsis de Hebb

El psicólogo canadiense Donald O. Hebb publicó su libro "The Organization of Behavior: Una teoría neuropsicológica". En él, Hebb teoriza sobre la excitación de las neuronas y la comunicación entre ellas, lo que influyó en la forma en que los psicólogos ven el procesamiento de los estímulos en la mente.

El primer uso del concepto fue para estudiar cómo aprenden los cerebros. También preparó el camino para el desarrollo de máquinas computacionales que imitan los procesos neurológicos naturales, como el aprendizaje automático.

1950 - La prueba de Turing

El Test de Turing fue propuesto por Alan Turing, un informático inglés, como medida de la inteligencia de un ordenador en 1950. Es una forma de medir la inteligencia artificial. Si alguien no puede distinguir si está hablando con otra persona o con un ordenador, entonces el ordenador se considera inteligente.

El test de Turing ha sido criticado por la dificultad de crear un test justo y preciso, así como porque la inteligencia no se mide adecuadamente sólo con este test. Sin embargo, sigue siendo un hito esencial en la historia de la investigación en inteligencia artificial.

Contacto con Startechup

1952 - El aprendizaje automático y el juego de las damas

El matemático inglés Arthur Samuel creó un programa de aprendizaje por ordenador para jugar a las damas por ordenador a nivel de campeonato, que fue creado para jugar en el IBM 701. Inició la poda alfa-beta, un diseño que mide las posibilidades de ganar de cada bando.

Este programa de ordenador elige su próxima jugada utilizando un algoritmo minimax, que calcula la mejor jugada posible para un jugador en una partida minimizando la ganancia máxima del adversario y maximizando la ganancia mínima del jugador.

Arthur Samuel es la primera persona que creó y popularizó el término "aprendizaje automático".

1956 - La cuna de la inteligencia artificial

En la historia del aprendizaje automático, el taller de Dartmouth de 1956 se considera el acontecimiento fundacional de la inteligencia artificial como campo. El informático John McCarthy invitó a conocidos matemáticos, científicos e investigadores a un taller de seis a ocho semanas de duración. Se reunieron en el Dartmouth College para establecer y dar ideas sobre los campos de investigación de la IA y el ML.

Taller de la universidad de Dartmouth 1956

1958 - El Perceptrón

El psicólogo Frank Rosenblatt intentó construir "la primera máquina capaz de producir una idea original" y posteriormente diseñó el Perceptrón, la primera red neuronal jamás producida.

Combinó el modelo de interacción de las células cerebrales de Donald Hebb con los esfuerzos de aprendizaje automático de Arthur Samuel. Se le alimentó con una serie de tarjetas perforadas y, tras 50 intentos, aprendió a identificar las tarjetas con marcas a la izquierda de las marcas a la derecha.

A pesar de su promesa, el perceptrón no pudo identificar muchos tipos de patrones visuales, lo que provocó la frustración de los investigadores. Pasaron varios años antes de que las frustraciones de los inversores y los organismos de financiación desaparecieran.

1963 - Un juego de tres en raya

El informático Donald Michel diseñó Machine Educable Noughts And Crosses Engine (MENACE), una gran pila de cajas de cerillas que contenía varias cuentas y que utilizaba el aprendizaje por refuerzo para jugar al tres en raya.

MENACE funciona un poco como una red neuronal. Se optimiza al azar inicialmente, pero después de jugar unas cuantas partidas, se ajusta para favorecer las estrategias ganadoras en cada situación.

Puedes competir con MENACE aquí.

1965 - Se presentan las redes neuronales multicapa

Alexey (Oleksii) Ivakhnenko y Valentin Lapa son científicos que trabajaron juntos para desarrollar el primer perceptrón multicapa de la historia. Se trata de una representación jerárquica de una red neuronal que utiliza una función de activación polinómica y se entrena mediante el Método de Grupo de Tratamiento de Datos (GMDH).

Ivakhnenko suele ser considerado el padre del aprendizaje profundo.

1967 - El algoritmo del vecino más cercano

Thomas Cover y Peter Hart publicaron su "Nearest Neighbor Pattern Classification" en 1967. Sentó las bases para el reconocimiento de patrones y la regresión en el aprendizaje automático.

El algoritmo del vecino más cercano es un método de reconocimiento de patrones muy básico que se desarrolló para permitir a los ordenadores realizar una detección de patrones rudimentaria. Funciona comparando los datos existentes y clasificándolos como el vecino más cercano, es decir, el elemento más similar en la memoria, lo que puede ayudar a los vendedores de viajes en una ciudad al azar.

Consulte nuestra página de servicios para disponer de nuestros Servicios de desarrollo de aprendizaje automático

1973 - El invierno de la IA del siglo XX

El informe Lighthill, elaborado por James Lighthill en 1973, presentaba un pronóstico muy pesimista sobre el desarrollo de los aspectos fundamentales en la investigación de la IA, afirmando: "En ninguna parte del campo los descubrimientos realizados hasta ahora han producido el gran impacto que entonces se prometía." Como resultado, el gobierno británico recortó la financiación de la investigación en IA en todas las universidades, excepto en dos. Es parte de la historia del aprendizaje automático conocida como el invierno de la IA.

1979 - Neocognitrón y el carro de Stanford

El informático japonés Kunihiko Fukushima publica su trabajo sobre el Neocognitrón, una red jerárquica multicapa utilizada para detectar patrones e inspirar las redes neuronales convolucionales utilizadas para analizar imágenes. Esto provocó una revolución en lo que ahora llamamos IA.

Carro de Stanford 1979

Ese mismo año, un grupo de investigadores de la Universidad de Stanford creó un robot llamado Cart. Fue un esfuerzo de décadas que evolucionó en varias formas desde 1960 hasta 1980. Creado inicialmente como un robot móvil equipado con un televisor a control remoto, se convirtió en una máquina conectada por radio a un gran ordenador central que puede sortear los obstáculos de una habitación de forma independiente.

El invento era puntero en aquel momento, y el aprendizaje automático se perfilaba como una probable herramienta para crear y, con el tiempo, revitalizar un vehículo autónomo.

1981 - Aprendizaje basado en explicaciones

El aprendizaje automático ha recorrido un largo camino desde sus inicios en 1981. Ese año, Gerald Dejong introdujo el concepto de aprendizaje basado en explicaciones (EBL), en el que un ordenador analiza los datos de entrenamiento y crea una regla general que puede seguir descartando los datos sin importancia. Por ejemplo, si se ordena al software que se concentre en la reina en ajedrez, descartará todas las piezas que no tengan un efecto inmediato. Esto sentó las bases de las modernas técnicas de aprendizaje supervisado.

1982 - La Red Hopfield

En 1982, el científico estadounidense John Hopfield crea la red Hopfield, que no es más que una red neuronal recurrente. Es un tipo especial cuya respuesta difiere de otras redes neuronales.

La red de Hopfield es una memoria asociativa, lo que significa que puede almacenar y recordar patrones. Sirve como un sistema de memoria direccionable de contenido y sería fundamental para otros modelos de RNN de la era moderna del aprendizaje profundo.

Cita de Startechup nettalk

1985 - El NETTalk

A mediados de la década de 1980, Terrence Sejnowski y Charles R. Rosenberg desarrollan NETtalk. Se creó con el objetivo de construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.

Siguiendo un enfoque basado en el conocimiento, aprende a pronunciar un texto escrito en inglés al mostrársele un texto como entrada y compararlo con transcripciones fonéticas. Simplificando los modelos de las operaciones cognitivas humanas, podría generar un texto similar al que aprende un bebé.

1986 - Máquina de Boltzmann restringida

Presentada inicialmente como Harmonium, la máquina de Boltzmann restringida (RBM) fue inventada por el científico cognitivo Paul Smolensky en 1986. Se hizo famosa después de que el científico de Stanford Geoffrey Hinton y sus colaboradores inventaran algoritmos de aprendizaje rápido para ellas a mediados de la década de 2000.

El RBM es más rápido que la máquina de Boltzmann tradicional porque "restringe" las conexiones entre los nodos. Es un algoritmo útil para la reducción de la dimensionalidad, la clasificación, la regresión, el filtrado colaborativo, el aprendizaje de características y el modelado de temas.

1989 - Refuerzo para el aprendizaje automático

El concepto de boosting se presentó por primera vez en un artículo de 1990 titulado "The Strength of Weak Learnability", de Robert Schapire y Yoav Freund. Supuso un desarrollo necesario para la evolución del aprendizaje automático.

Como afirma Schapire, "un conjunto de aprendices débiles puede crear un único aprendiz fuerte". Simplemente se traduce en producir numerosos modelos débiles y combinar sus predicciones para convertirlos en un único modelo potente.

Red neuronal

1991 - El problema de la desaparición del gradiente

Aunque a principios de la década de 1990 se popularizaron métodos como las máquinas de vectores soporte, aún quedaban retos por resolver. El problema del gradiente de fuga fue identificado por primera vez por Sepp Hochreiter. Se trataba de un reto en el desarrollo del aprendizaje automático, concretamente con redes neuronales profundas.

A medida que aumenta el número de capas de una red, el valor de la derivada disminuye hasta que acaba desapareciendo por completo. Esto puede hacer que el proceso de aprendizaje sea extremadamente lento y difícil de gestionar.

Durante años, este asunto seguirá irritando a la comunidad.

1992 - Jugando al Backgammon

El investigador Gerald Tesauro creó un programa basado en una red neuronal artificial capaz de jugar al backgammon con habilidades que se equiparan a las de los mejores jugadores humanos. El software para jugar al backgammon, llamado TD-Gammon. Podía jugar a un alto nivel tras unas pocas horas de entrenamiento, y siguió mejorando a medida que jugaba más partidas.

El éxito del programa supuso un hito importante en la inteligencia artificial y en la historia del aprendizaje automático, ya que demostró que las redes neuronales podían utilizarse para crear programas capaces de aprender y mejorar a través de la experiencia.

1997 - Deep Blue y el hito del LSTM

En 1997, Deep Blue, de IBM, se convirtió en el primer sistema informático de ajedrez que derrotó a un campeón mundial vigente, al vencer a Garry Kasparov.

Tablero de ajedrez

También es el año en el que Sepp Hochreiter y Jürgen Schmidhuber publicaron un innovador artículo sobre la "memoria a largo plazo" (LSTM). Se trata de una arquitectura de red neuronal recurrente que revolucionará el aprendizaje profundo en las próximas décadas.

2002 - La liberación de Torch

En 2002, se publicó la biblioteca de aprendizaje automático de código abierto Torch. Esta biblioteca permitía más flexibilidad y personalización que otras bibliotecas de la época y rápidamente se hizo popular entre los investigadores.

2006 - Red de Creencias Profundas

Este año marca un momento notable en la historia del aprendizaje automático porque Geoffrey Hinton creó algoritmos de aprendizaje rápido para explicar los nuevos algoritmos que ayudan a los ordenadores a distinguir objetos y texto en imágenes y vídeos.

Junto con Ruslan Salakhutdinov, Osindero y Teh, publicaron el artículo "A fast learning algorithm for deep belief nets" (Un algoritmo de aprendizaje rápido para redes de creencias profundas), en el que apilaron múltiples RBM en capas y las llamaron redes de creencias profundas. El proceso de entrenamiento es mucho más eficiente para grandes cantidades de datos.

2009 - ImageNet

Fei-Fei Li, profesor de Stanford, lanzó en 2009 ImageNet, una base de datos de 14 millones de imágenes etiquetadas. Sería un punto de referencia para los investigadores de aprendizaje profundo que participan en las competiciones de ImageNet (ILSVRC) cada año.

El Economista describió la creación de esta base de datos como un acontecimiento excepcional para popularizar la IA en toda la comunidad tecnológica, marcando una nueva era en la historia del aprendizaje profundo.

2010 - Kinect de Microsoft

Un año notable para la historia del aprendizaje automático es el lanzamiento de Kinect, un dispositivo de entrada con sensor de movimiento para la consola de juegos Xbox 360. Puede rastrear 20 rasgos humanos diferentes a un ritmo de 30 veces por segundo.

2011 - Watson de IBM y Google Brain

Watson es un sistema cognitivo basado en la inteligencia artificial y el procesamiento del lenguaje natural desarrollado por IBM. En 2011, Watson compitió en el programa de juegos Jeopardy! contra dos competidores humanos y ganó. Esto lo convirtió en el primer sistema informático que ganó un concurso contra humanos.

IBM Watson en Jeopardy! 2011

Ese mismo año, el equipo del X Lab de Google desarrolló un algoritmo de aprendizaje automático llamado Google Brain. El objetivo era crear una red neuronal profunda que pudiera aprender a navegar de forma autónoma por los vídeos de youtube y a reconocer gatos en imágenes digitales, al igual que el cerebro humano.

El equipo presentó su papelEl artículo "Building high-level features using large scale unsupervised learning" (Construyendo características de alto nivel mediante el aprendizaje no supervisado a gran escala) destacaba el descubrimiento de la posibilidad de entrenar un detector de rostros sin tener que etiquetar las imágenes como si contuvieran un rostro o no. Fue un avance significativo en la historia del aprendizaje automático, especialmente en el procesamiento de imágenes.

2012 - Clasificación de ImageNet

En 2012, Alex Krizhevsky, Geoffrey Hinton e Ilya Sutskever publicaron un artículo de investigación en el que detallaban un modelo que puede reducir a pasos agigantados la tasa de error en los sistemas de reconocimiento de imágenes.

AlexNet, un modelo de CNN basado en la GPU y creado por Alex Krizhevsky, ganó el concurso de clasificación de imágenes de Imagenet con una precisión de 84%. Mejoró significativamente la tasa de éxito del 75 por ciento de los modelos anteriores. Esta victoria inicia una revolución del aprendizaje profundo que se extenderá por todo el mundo.

2014 - DeepFace de Facebook y Sibyl de Google

Facebook desarrolló DeepFace, un algoritmo de software facial de aprendizaje profundo que puede reconocer y verificar individuos en fotos con una precisión de un humano. Es uno de los algoritmos informáticos avanzados que puede identificar rostros humanos con una precisión de 97,35%. Este logro histórico en los algoritmos de reconocimiento facial tendrá un profundo impacto en la capacidad de Facebook para mantener los datos de los usuarios seguros y luchar contra la delincuencia.

Otro hito en la historia del aprendizaje automático es la puesta a disposición del público de Sibyl de Google, un sistema de aprendizaje automático a gran escala. El sistema también incluye numerosos y sofisticados algoritmos para predecir el comportamiento de los usuarios.

Contacto con Startechup

2015 - Plataforma de algoritmos y herramientas de aprendizaje automático

Amazon lanza su propia plataforma de aprendizaje automático. El gigante del comercio electrónico pone el aprendizaje automático al alcance de cualquiera que tenga una cuenta de Amazon Web Services (AWS). La plataforma ofrece un conjunto de herramientas y algoritmos para que los científicos de datos construyan y entrenen modelos.

Microsoft también había desarrollado el kit de herramientas de aprendizaje automático distribuido, que permitía compartir eficazmente los problemas de aprendizaje automático entre varios ordenadores.

2016 - Algoritmo AlphaGo y Face2Face

El Go es un antiguo juego de mesa chino con tantos movimientos posibles en cada paso que las posiciones futuras son difíciles de predecir. Cuando el algoritmo AlphaGo se desarrolló en marzo de 2016, sorprendió al mundo al derrotar a uno de los mejores jugadores de Go, Lee Sedol.

También en 2016, un equipo de científicos dio a conocer Face2Face en la Conferencia de Visión por Computador y Reconocimiento de Patrones. La mayor parte del software "DeepFake" actual se basa en su marco y algoritmos.

2017 - Waymo

Waymo se convirtió en la primera empresa de coches autoconducidos que opera sin intervención humana. Los vehículos de la empresa han recorrido ya más de 8 millones de kilómetros en carreteras públicas, con conductores humanos que solo intervienen cuando es necesario. El lanzamiento del servicio de taxi autodirigido de Waymo marcó un hito importante para la empresa, y ahora está trabajando para ampliar su flota de vehículos y servicios. Más adelante, ese mismo año, introducen taxis completamente autónomos en la ciudad de Phoenix.

2018 - AlphaFold de DeepMind

Tras crear AlphaGo, el equipo dio el primer paso en el desarrollo de algoritmos para problemas exactamente iguales al plegado de proteínas. AlphaFold se construyó para predecir las formas 3D de las proteínas, las moléculas fundamentales de la vida. Entrenaron una red neuronal con miles de proteínas conocidas hasta que pudo predecir de forma independiente estructuras 3D a partir de aminoácidos. Finalmente, la utiliza para predecir las distancias entre pares de aminoácidos y los ángulos entre los enlaces químicos que los conectan.

2020 - GPT-3 y el auge de la IA sin código

Startechup no-code ai quote

Cuando el mundo se enfrentaba a la pandemia de 2020, OpenAI creó un algoritmo de inteligencia artificial, el GPT-3, capaz de generar textos similares a los humanos. En su momento, es el modelo lingüístico más avanzado del mundo, que utiliza 175.000 millones de parámetros y el superordenador de IA de Microsoft Azure para el entrenamiento.

Aparte de eso, Zapier descubre un enorme aumento en el uso de herramientas de IA sin código o de bajo código desde principios de 2020. Algunas plataformas populares de IA sin código incluyen AutoML de Google, SageMaker de Amazon y Azure ML de Microsoft. Permiten a los usuarios sin experiencia en codificación entrenar y desplegar algoritmos de aprendizaje automático. Este movimiento está fomentado por la demanda de las empresas de producir aplicaciones de IA rápidamente sin coste adicional.

2021 - AI4LIFE y TrustML

La informática estadounidense de origen indio Himabindu "Hima" Lakkaraju no sólo es cofundadora de la Trustworthy ML Initiative (TrustML), sino que también dirige el grupo de investigación AI4LIFE en Harvard. Su objetivo es hacer que el aprendizaje automático sea más asequible para los profanos, al tiempo que continúa estudiando cómo hacer que estos modelos sean interpretables, justos, privados y seguros.

2022 y el futuro del aprendizaje automático

El aprendizaje automático está evolucionando a un ritmo asombroso y no muestra signos de desaceleración. A principios de 2022, ya hemos visto cómo progresa aún más a medida que aumentan las aplicaciones de software de servicios cognitivos. El aprendizaje automático fue incluso definido por la Universidad de Stanford como "la ciencia de conseguir que los ordenadores actúen sin ser programados explícitamente."

En el futuro, podemos esperar mejoras del aprendizaje automático en:

Aprendizaje automático cuántico (QML)

Los ordenadores cuánticos permiten un procesamiento más rápido de los datos, lo que mejora la capacidad del algoritmo para analizar y sacar conclusiones significativas de los conjuntos de datos.

Algoritmos de aprendizaje no supervisado

El aprendizaje supervisado y no supervisado es importante en la historia del aprendizaje automático, pero este último se convertirá en el ideal para las empresas que quieran aplicar planes de venta cruzada.

Gestión de la operacionalización del aprendizaje automático (MLOps)

Esto ayuda a que los algoritmos de aprendizaje automático desplegados en producción tengan un rendimiento óptimo y fiable.

Automatización de procesos robóticos

Aprendizaje automático (AutoML)

AutoML facilitará el proceso de formación de datos para ayudar a etiquetar los datos y reducir los errores humanos en las operaciones

Automatización de procesos robóticos (RPA)

Antes de que un bot RPA pueda procesar los datos, es necesario un enfoque basado en datos, y el aprendizaje automático le ayudará a producir menos errores.

Descubra el aprendizaje automático con nosotros

Es innegable que las tendencias de aprendizaje automático son vitales en las empresas, ya que permiten a los empresarios comprender el comportamiento de los clientes y el funcionamiento del negocio. Si quieres descubrir cómo el machine learning puede ayudar a tu negocio, contacto con nosotros!

Sobre el autor: Andrea Jacinto - Redactor de contenidos

Escritora de contenidos con una sólida formación en SEO, Andrea ha estado trabajando con vendedores digitales de diferentes campos para crear artículos optimizados que sean informativos, digeribles y divertidos de leer. Ahora, escribe para StarTechUP con el fin de ofrecer los últimos avances en tecnología a los lectores de todo el mundo. Ver en Linkedin

MÁS INFORMACIÓN