Historia del aprendizaje automático: La cronología completa [ACTUALIZADO]

9 de septiembre de 2022

Blog de la historia del aprendizaje automático de Startechup

Un hecho trascendental que puso el foco en el aprendizaje automático fue en 2016 cuando La IA AlphaGo de Google DeepMind hizo historia al derrotar a uno de los mejores jugadores de Go del mundo. Al ser un juego de mesa complejo que requiere una gran intuición y pensamiento abstracto, mucha gente se sorprendió al saber que las máquinas pueden pensar como los humanos.

Los algoritmos de aprendizaje automático se han vuelto omnipresentes hoy en día, impulsando todo, desde los motores de búsqueda hasta los coches autodirigidos. Pero, ¿cómo empezó todo esto?

En este blog, exploraremos la línea de tiempo completa de la historia del aprendizaje automático. ¡Empecemos!

Tabla de contenidos

1943 - El primer modelo matemático de una neurona biológica

Presupuesto de aprendizaje automático de Startechup

Walter Pitts y Warren McCulloch crearon el primer modelo matemático de redes neuronales en 1943. Su artículo científico, "A Logical Calculus of the Ideas Immanent in Nervous Activity", se utilizó para crear algoritmos que imitan los procesos del pensamiento humano.

Esta Neurona McCulloch Pitts tiene una capacidad muy limitada y no tiene ningún mecanismo de aprendizaje. Sin embargo, fue el verdadero punto de partida de la disciplina moderna del aprendizaje automático y más tarde abrió el camino al aprendizaje profundo y al aprendizaje automático cuántico.

1949 - La sinapsis de Hebb

El psicólogo canadiense Donald O. Hebb publicó su libro "The Organization of Behavior: Una teoría neuropsicológica". En él, Hebb teoriza sobre la excitación de las neuronas y la comunicación entre ellas, lo que influyó en la forma en que los psicólogos ven el procesamiento de los estímulos en la mente.

El primer uso del concepto fue para estudiar cómo aprenden los cerebros. También preparó el camino para el desarrollo de máquinas computacionales que imitan los procesos neurológicos naturales, como el aprendizaje automático.

1950 - La prueba de Turing

El Test de Turing fue propuesto por Alan Turing, un informático inglés, como medida de la inteligencia de un ordenador en 1950. Es una forma de medir la inteligencia artificial. Si alguien no puede distinguir si está hablando con otra persona o con un ordenador, entonces el ordenador se considera inteligente.

El test de Turing ha sido criticado por la dificultad de crear un test justo y preciso, así como porque la inteligencia no se mide adecuadamente sólo con este test. Sin embargo, sigue siendo un hito esencial en la historia de la investigación en inteligencia artificial.

Servicios de inteligencia artificial de StarTechUP

1952 - El aprendizaje automático y el juego de las damas

El matemático inglés Arthur Samuel creó un programa de aprendizaje por ordenador para jugar a las damas por ordenador a nivel de campeonato, que fue creado para jugar en el IBM 701. Inició la poda alfa-beta, un diseño que mide las posibilidades de ganar de cada bando.

Este programa de ordenador elige su próxima jugada utilizando un algoritmo minimax, que calcula la mejor jugada posible para un jugador en una partida minimizando la ganancia máxima del adversario y maximizando la ganancia mínima del jugador.

Arthur Samuel es la primera persona que creó y popularizó el término "aprendizaje automático".

1956 - La cuna de la inteligencia artificial

En la historia del aprendizaje automático, el taller de Dartmouth de 1956 se considera el acontecimiento fundacional de la inteligencia artificial como campo. El informático John McCarthy invitó a conocidos matemáticos, científicos e investigadores a un taller de seis a ocho semanas de duración. Se reunieron en el Dartmouth College para establecer y dar ideas sobre los campos de investigación de la IA y el ML.

Taller de la universidad de Dartmouth 1956

1958 - El Perceptrón

El psicólogo Frank Rosenblatt intentó construir "la primera máquina capaz de producir una idea original" y posteriormente diseñó el Perceptrón, la primera red neuronal jamás producida.

Combinó el modelo de interacción de las células cerebrales de Donald Hebb con los esfuerzos de aprendizaje automático de Arthur Samuel. Se le alimentó con una serie de tarjetas perforadas y, tras 50 intentos, aprendió a identificar las tarjetas con marcas a la izquierda de las marcas a la derecha.

A pesar de sus promesas, el perceptrón no podía identificar muchos tipos de patrones visuales, lo que provocó la frustración de los investigadores. Pasarían varios años antes de que desaparecieran las frustraciones de inversores y organismos de financiación.

1963 - Un juego de tres en raya

El informático Donald Michel diseñó Machine Educable Noughts And Crosses Engine (MENACE), una gran pila de cajas de cerillas que contenía varias cuentas y que utilizaba el aprendizaje por refuerzo para jugar al tres en raya.

MENACE funciona un poco como una red neuronal. Se optimiza al azar inicialmente, pero después de jugar unas cuantas partidas, se ajusta para favorecer las estrategias ganadoras en cada situación.

Puedes competir con MENACE aquí.

1965 - Se presentan las redes neuronales multicapa

Alexey (Oleksii) Ivakhnenko y Valentin Lapa son científicos que trabajaron juntos para desarrollar el primer perceptrón multicapa de la historia. Se trata de una representación jerárquica de una red neuronal que utiliza una función de activación polinómica y se entrena mediante el Método de Grupo de Tratamiento de Datos (GMDH).

Ivakhnenko suele ser considerado el padre del aprendizaje profundo.

1967 - El algoritmo del vecino más cercano

Thomas Cover y Peter Hart publicaron su "Nearest Neighbor Pattern Classification" en 1967. Sentó las bases para el reconocimiento de patrones y la regresión en el aprendizaje automático.

El algoritmo del vecino más cercano es un método de reconocimiento de patrones muy básico que se desarrolló para permitir a los ordenadores realizar una detección de patrones rudimentaria. Funciona comparando los datos existentes y clasificándolos como el vecino más cercano, es decir, el elemento más similar en la memoria, lo que puede ayudar a los vendedores de viajes en una ciudad al azar.

Consulte nuestra página de servicios para disponer de nuestros Servicios de desarrollo de aprendizaje automático

1973 - El invierno de la IA del siglo XX

El informe Lighthill, elaborado por James Lighthill en 1973, presentaba un pronóstico muy pesimista sobre el desarrollo de aspectos fundamentales en la investigación de la IA, afirmando: "En ninguna parte del campo los descubrimientos realizados hasta ahora han producido el gran impacto que entonces se prometía." Esto llevó a reducir la financiación de la investigación en IA en todas las universidades británicas excepto en dos, marcando un periodo en la historia del aprendizaje automático conocido como el invierno de la IA.

1979 - Neocognitrón y el carro de Stanford

El informático japonés Kunihiko Fukushima publicó su trabajo sobre el Neocognitrón, una red jerárquica multicapa utilizada para detectar patrones e inspirar las redes neuronales convolucionales utilizadas para analizar imágenes. Esto desencadenó una revolución en lo que hoy llamamos IA.

Carro de Stanford 1979

Ese mismo año, un grupo de investigadores de la Universidad de Stanford creó un robot llamado Cart. Fue un esfuerzo de décadas que evolucionó en varias formas desde 1960 hasta 1980. Creado inicialmente como un robot móvil equipado con un televisor a control remoto, se convirtió en una máquina conectada por radio a un gran ordenador central que puede sortear los obstáculos de una habitación de forma independiente.

El invento era puntero en aquel momento, y el aprendizaje automático se perfilaba como una probable herramienta para crear y, con el tiempo, revitalizar un vehículo autónomo.

1981 - Aprendizaje basado en explicaciones

El aprendizaje automático ha recorrido un largo camino desde sus inicios en 1981. Ese año, Gerald Dejong introdujo el concepto de aprendizaje basado en explicaciones (EBL), en el que un ordenador analiza los datos de entrenamiento y crea una regla general que puede seguir descartando los datos sin importancia. Por ejemplo, si se ordena al software que se concentre en la reina en ajedrez, descartará todas las piezas que no tengan un efecto inmediato. Esto sentó las bases de las modernas técnicas de aprendizaje supervisado.

1982 - La Red Hopfield

En 1982, el científico estadounidense John Hopfield creó la Red Hopfield, que no es otra cosa que una red neuronal recurrente. Es un tipo especial cuya respuesta difiere de otras redes neuronales.

La red de Hopfield es una memoria asociativa, lo que significa que puede almacenar y recordar patrones. Sirve como un sistema de memoria direccionable de contenido y sería fundamental para otros modelos de RNN de la era moderna del aprendizaje profundo.

Cita de Startechup nettalk

1985 - El NETTalk

A mediados de los 80, Terrence Sejnowski y Charles R. Rosenberg desarrollaron NETtalk. Se creó con el objetivo de construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.

Siguiendo un enfoque basado en el conocimiento, aprende a pronunciar un texto escrito en inglés al mostrársele un texto como entrada y compararlo con transcripciones fonéticas. Simplificando los modelos de las operaciones cognitivas humanas, podría generar un texto similar al que aprende un bebé.

1986 - Máquina de Boltzmann restringida

Presentada inicialmente como Harmonium, la máquina de Boltzmann restringida (RBM) fue inventada por el científico cognitivo Paul Smolensky en 1986. Se hizo famosa después de que el científico de Stanford Geoffrey Hinton y sus colaboradores inventaran algoritmos de aprendizaje rápido para ellas a mediados de la década de 2000.

El RBM es más rápido que la máquina de Boltzmann tradicional porque "restringe" las conexiones entre los nodos. Es un algoritmo útil para la reducción de la dimensionalidad, la clasificación, la regresión, el filtrado colaborativo, el aprendizaje de características y el modelado de temas.

1989 - Refuerzo para el aprendizaje automático

El concepto de boosting se presentó por primera vez en un artículo de 1990 titulado "The Strength of Weak Learnability", de Robert Schapire y Yoav Freund. Supuso un desarrollo necesario para la evolución del aprendizaje automático.

Como afirma Schapire, "un conjunto de aprendices débiles puede crear un único aprendiz fuerte". Simplemente se traduce en producir numerosos modelos más débiles y combinar sus predicciones para convertirlos en un único modelo potente.

Red neuronal

1991 - El problema de la desaparición del gradiente

Aunque a principios de la década de 1990 se popularizaron métodos como las máquinas de vectores soporte, aún quedan retos por superar. Sepp Hochreiter identificó por primera vez el problema del gradiente de fuga. Se trataba de un reto en el desarrollo del aprendizaje automático, concretamente con redes neuronales profundas.

A medida que aumenta el número de capas de una red, el valor de la derivada disminuye hasta que acaba desapareciendo por completo. Esto puede hacer que el proceso de aprendizaje sea extremadamente lento y difícil de gestionar.

Durante años, este asunto seguirá irritando a la comunidad.

1992 - Jugando al Backgammon

El investigador Gerald Tesauro creó un programa basado en una red neuronal artificial capaz de jugar al backgammon con habilidades equiparables a las de los mejores jugadores humanos. El software de backgammon se llama TD-Gammon. Podía jugar a un alto nivel tras unas pocas horas de entrenamiento, y siguió mejorando a medida que jugaba más partidas.

El éxito del programa supuso un hito importante en la inteligencia artificial y en la historia del aprendizaje automático, ya que demostró que las redes neuronales podían utilizarse para crear programas capaces de aprender y mejorar a través de la experiencia.

1997 - Deep Blue y el hito del LSTM

En 1997, Deep Blue, de IBM, se convirtió en el primer sistema informático de ajedrez que derrotó a un campeón mundial vigente, al vencer a Garry Kasparov.

También es el año en el que Sepp Hochreiter y Jürgen Schmidhuber publicaron un innovador artículo sobre la "memoria a largo plazo" (LSTM). Se trata de una arquitectura de red neuronal recurrente que revolucionará el aprendizaje profundo en las próximas décadas.

2002 - La liberación de Torch

En 2002, se publicó la biblioteca de aprendizaje automático de código abierto Torch. Esta biblioteca permitía más flexibilidad y personalización que otras bibliotecas de la época y rápidamente se hizo popular entre los investigadores.

2006 - Red de Creencias Profundas

Este año marca un momento notable en la historia del aprendizaje automático porque Geoffrey Hinton creó algoritmos de aprendizaje rápido para explicar los nuevos algoritmos que ayudan a los ordenadores a distinguir objetos y texto en imágenes y vídeos.

Junto con Ruslan Salakhutdinov, Osindero y Teh, publicaron el artículo "A fast learning algorithm for deep belief nets" (Un algoritmo de aprendizaje rápido para redes de creencias profundas), en el que apilaron múltiples RBM en capas y las llamaron redes de creencias profundas. El proceso de entrenamiento es mucho más eficiente para grandes cantidades de datos.

2009 - ImageNet

Fei-Fei Li, profesor de Stanford, lanzó ImageNet, una base de datos de 14 millones de imágenes etiquetadas, en 2009. Sería un punto de referencia para los investigadores de aprendizaje profundo que participan cada año en las competiciones ImageNet (ILSVRC).

El Economista describió la creación de esta base de datos como un acontecimiento excepcional para popularizar la IA en toda la comunidad tecnológica, marcando una nueva era en la historia del aprendizaje profundo.

2010 - Kinect de Microsoft

Un año notable para la historia del aprendizaje automático es el lanzamiento de Kinect, un dispositivo de entrada con sensor de movimiento para la consola de videojuegos Xbox 360. Puede rastrear 20 rasgos humanos diferentes a 30 veces por segundo.

2011 - Watson de IBM y Google Brain

Watson es un sistema cognitivo desarrollado por IBM basado en la inteligencia artificial y el procesamiento del lenguaje natural. En 2011, Watson compitió en el concurso Jeopardy! contra dos competidores humanos y ganó. Se convirtió así en el primer sistema informático que ganaba un concurso contra humanos.

IBM Watson en Jeopardy! 2011

Ese mismo año, el equipo del X Lab de Google desarrolló un algoritmo de aprendizaje automático llamado Google Brain. El objetivo era crear una red neuronal profunda que pudiera aprender a navegar de forma autónoma por vídeos de YouTube y reconocer gatos en imágenes digitales, igual que el cerebro humano.

El equipo presentó su papelEl artículo "Building high-level features using large scale unsupervised learning" (Construyendo características de alto nivel mediante el aprendizaje no supervisado a gran escala) destacaba el descubrimiento de la posibilidad de entrenar un detector de rostros sin tener que etiquetar las imágenes como si contuvieran un rostro o no. Fue un avance significativo en la historia del aprendizaje automático, especialmente en el procesamiento de imágenes.

2012 - Clasificación de ImageNet

En 2012, Alex Krizhevsky, Geoffrey Hinton e Ilya Sutskever publicaron un artículo de investigación en el que detallaban un modelo que puede reducir a pasos agigantados la tasa de error en los sistemas de reconocimiento de imágenes.

AlexNet, un modelo de CNN basado en la GPU y creado por Alex Krizhevsky, ganó el concurso de clasificación de imágenes de Imagenet con una precisión de 84%. Mejoró significativamente la tasa de éxito del 75 por ciento de los modelos anteriores. Esta victoria inicia una revolución del aprendizaje profundo que se extenderá por todo el mundo.

2014 - DeepFace de Facebook y Sibyl de Google

Facebook desarrolló DeepFace, un algoritmo de software facial de aprendizaje profundo que puede reconocer y verificar individuos en fotos con precisión humana. Es uno de los algoritmos informáticos avanzados que puede identificar rostros humanos con una precisión de 97,35%. Este logro histórico en algoritmos de reconocimiento facial repercutirá profundamente en la capacidad de Facebook para mantener seguros los datos de los usuarios y luchar contra la delincuencia.

Otro hito en la historia del aprendizaje automático es la puesta a disposición del público de Sibyl de Google, un sistema de aprendizaje automático a gran escala. El sistema también incluye numerosos y sofisticados algoritmos para predecir el comportamiento de los usuarios.

Contacto con Startechup

2015 - Plataforma de algoritmos y herramientas de aprendizaje automático

Amazon lanza su propia plataforma de aprendizaje automático. El gigante del comercio electrónico pone el aprendizaje automático al alcance de cualquiera que tenga una cuenta de Amazon Web Services (AWS). La plataforma ofrece un conjunto de herramientas y algoritmos para que los científicos de datos construyan y entrenen modelos.

Microsoft también había desarrollado el kit de herramientas de aprendizaje automático distribuido, que permitía compartir eficazmente los problemas de aprendizaje automático entre varios ordenadores.

2016 - Algoritmo AlphaGo y Face2Face

El Go es un antiguo juego de mesa chino con tantos movimientos posibles en cada paso que las posiciones futuras son difíciles de predecir. Cuando se desarrolló el algoritmo AlphaGo en marzo de 2016, sorprendió al mundo al derrotar a uno de los mejores jugadores de Go, Lee Sedol.

Además, en 2016, un equipo de científicos dio a conocer Face2Face en la Conferencia sobre Visión por Ordenador y Reconocimiento de Patrones. La mayor parte del software "DeepFake" actual se basa en su marco y algoritmos.

2017 - Waymo

Waymo se ha convertido en la primera empresa de coches autoconducidos que funciona sin intervención humana. Los vehículos de la empresa ya han recorrido más de 8 millones de kilómetros en carreteras públicas, con conductores humanos que solo intervienen cuando es necesario. El lanzamiento del servicio de taxis autoconducidos de Waymo marcó un hito importante para la empresa, que ahora trabaja para ampliar su flota de vehículos y servicios. Más adelante, ese mismo año, introdujeron taxis completamente autónomos en la ciudad de Phoenix.

2018 - AlphaFold de DeepMind

Tras crear AlphaGo, el equipo dio el primer paso en el desarrollo de algoritmos para problemas exactamente iguales al plegado de proteínas. AlphaFold se construyó para predecir las formas 3D de las proteínas, las moléculas fundamentales de la vida. Entrenaron una red neuronal con miles de proteínas conocidas hasta que pudo predecir de forma independiente estructuras 3D a partir de aminoácidos. Finalmente, la utiliza para predecir las distancias entre pares de aminoácidos y los ángulos entre los enlaces químicos que los conectan.

2020 - GPT-3 y el auge de la IA sin código

Startechup no-code ai quote

Cuando el mundo se enfrentaba a la pandemia de 2020, OpenAI creó un algoritmo de inteligencia artificial, el GPT-3, capaz de generar textos similares a los humanos. En su momento, es el modelo lingüístico más avanzado del mundo, que utiliza 175.000 millones de parámetros y el superordenador de IA de Microsoft Azure para el entrenamiento.

Aparte de eso, Zapier descubre un enorme aumento en el uso de herramientas de IA sin código o de bajo código desde principios de 2020. Algunas plataformas populares de IA sin código incluyen AutoML de Google, SageMaker de Amazon y Azure ML de Microsoft. Permiten a los usuarios sin experiencia en codificación entrenar y desplegar algoritmos de aprendizaje automático. Este movimiento está fomentado por la demanda de las empresas de producir aplicaciones de IA rápidamente sin coste adicional.

2021 - TrustML y DALL-E de OpenAI

La informática estadounidense de origen indio Himabindu "Hima" Lakkaraju no sólo es cofundadora de la Trustworthy ML Initiative (TrustML), sino que también dirige el grupo de investigación AI4LIFE en Harvard. Su objetivo es hacer que el aprendizaje automático sea más asequible para los profanos y, al mismo tiempo, seguir estudiando cómo hacer que estos modelos sean interpretables, justos, privados y seguros.

Introducido en enero de 2021, DALL-E  es una variante de GPT-3, un modelo de procesamiento lingüístico de OpenAI. Se adentra en la generación de imágenes a partir de texto, añadiendo toda una nueva dimensión al procesamiento del lenguaje. Impulsado por la red neuronal transformadora, DALL-E está remodelando la forma en que interactuamos con la tecnología de IA.

2022 - Debut de ChatGPT, AlphaTensor de DeepMind y más modelos T2I

OpenAI presentó una demo temprana de ChatGPT el 30 de noviembre de 2022. El chatbot se hizo viral en las redes sociales, mostrando su versatilidad. Desde planificar viajes hasta escribir fábulas y programar, los usuarios se maravillaron de su versatilidad. capacidades.

En cinco días acumuló más de un millón de usuarios.

En octubre, DeepMind presentó AlphaTensor. Según un Blog de DeepMind, AlphaTensor amplía AlphaZero, que destacó en ajedrez y Go. Esta nueva obra pasa de los juegos a abordar problemas matemáticos sin resolver.

El estreno de DALL-E 2 también se produjo este año, reconocido como uno de Los 100 inventos de la revista TIME. Además, Midjourney lanzó su v1 y Stable Diffusion entró en escena, sentando las bases para los modelos de texto a imagen (T2I).

2023 - Los LLM y la visión por ordenador reinan en la escena

En 2023, asistimos al auge de los LLM o Grandes Modelos Lingüísticos, con el lanzamiento del GPT-4 el 14 de marzo de 2023.

También asistimos a la evolución de los LLM hacia sistemas multimodales, o lo que ellos llaman LLM Multimodales. Entre los MLLM más destacados se encuentran el de OpenAI GPT-4 Visión y Google DeepMind Géminis. Permiten a los usuarios interactuar con el sistema mediante texto, imágenes y voz.

Además, la visión por ordenador siguió avanzando de forma significativa. En septiembre de 2023, Google presentó Transformador de visiónun modelo basado en el aprendizaje profundo que realiza tareas de reconocimiento de imágenes mejor que los métodos anteriores. Utiliza mecanismos de autoatención similares a los empleados en los modelos lingüísticos, acercando los mundos del procesamiento del lenguaje natural y la visión por ordenador.

con gafas de realidad virtual

2024 y más allá

En el futuro, podemos esperar mejoras del aprendizaje automático en:

Aprendizaje automático cuántico (QML)

Los ordenadores cuánticos permiten un procesamiento más rápido de los datos, lo que mejora la capacidad del algoritmo para analizar y sacar conclusiones significativas de los conjuntos de datos.

Gestión de la operacionalización del aprendizaje automático (MLOps)

Esto ayuda a que los algoritmos de aprendizaje automático desplegados en producción tengan un rendimiento óptimo y fiable.

[Lea también: ¿Qué es MLOps y por qué lo necesitamos en 2024?]

Aprendizaje automático (AutoML)

AutoML facilitará el proceso de formación de datos, ayudando a su etiquetado y reduciendo los errores humanos en las operaciones.

Automatización de procesos robóticos (RPA)

Antes de que un bot RPA pueda procesarlos, es necesario un enfoque basado en datos, y el aprendizaje automático le ayudará a producir menos errores.

Descubra el aprendizaje automático con nosotros

Es innegable que las tendencias de aprendizaje automático son vitales en las empresas, ya que permiten a los empresarios comprender el comportamiento de los clientes y el funcionamiento del negocio. Si quieres descubrir cómo el machine learning puede ayudar a tu negocio, contacto con nosotros!

Sobre el autor: Andrea Jacinto - Redactor de contenidos

Escritora de contenidos con una sólida formación en SEO, Andrea ha estado trabajando con vendedores digitales de diferentes campos para crear artículos optimizados que sean informativos, digeribles y divertidos de leer. Ahora, escribe para StarTechUP con el fin de ofrecer los últimos avances en tecnología a los lectores de todo el mundo. Ver en Linkedin

MÁS INFORMACIÓN