Historia del aprendizaje automático: La línea de tiempo completa

9 de septiembre de 2022

Blog de la historia del aprendizaje automático de Startechup

Un hecho trascendental que puso el foco en el aprendizaje automático fue en 2016 cuando Google DeepMind’s AlphaGo AI hizo historia al derrotar a uno de los mejores jugadores de Go del mundo. Al ser un juego de mesa complejo que requiere una gran intuición y pensamiento abstracto, mucha gente se sorprendió al saber que las máquinas pueden pensar como los humanos.

Los algoritmos de aprendizaje automático se han vuelto omnipresentes hoy en día, impulsando todo, desde los motores de búsqueda hasta los coches autodirigidos. Pero, ¿cómo empezó todo esto?

In this blog, we’ll explore the complete timeline of the history of machine learning. Let’s get started!

1943 – The First Mathematical Model of a Biological Neuron

Presupuesto de aprendizaje automático de Startechup

Walter Pitts and Warren McCulloch created the first mathematical model of neural networks in 1943. Their scientific paper, “A Logical Calculus of the Ideas Immanent in Nervous Activity,? was used to create algorithms that mimic human thought processes.

Esta Neurona McCulloch Pitts tiene una capacidad muy limitada y no tiene ningún mecanismo de aprendizaje. Sin embargo, fue el verdadero punto de partida de la disciplina moderna del aprendizaje automático y más tarde abrió el camino al aprendizaje profundo y al aprendizaje automático cuántico.

1949 – The Hebb Synapse

Canadian psychologist Donald O. Hebb published his book “The Organization of Behavior: A Neuropsychological Theory.” Here, Hebb theorizes on neuron excitement and communication between neurons that influenced how psychologists view stimulus processing in the mind.

El primer uso del concepto fue para estudiar cómo aprenden los cerebros. También preparó el camino para el desarrollo de máquinas computacionales que imitan los procesos neurológicos naturales, como el aprendizaje automático.

1950 – The Turing Test

The Turing Test was proposed by Alan Turing, an English computer scientist, as a measure of a computer’s intelligence in 1950. It’s a way to measure artificial intelligence. If someone can’t tell if they’re talking to another person or a computer, then the computer is considered intelligent.

El test de Turing ha sido criticado por la dificultad de crear una prueba justa y precisa, así como porque la inteligencia no se mide adecuadamente sólo con este test. Sin embargo, sigue siendo un hito esencial en la historia de la investigación de la inteligencia artificial.

Contacto con Startechup

1952 – Machine Learning and the Game of Checkers

English mathematician Arthur Samuel created a computer learning program for playing championship-level computer checkers, which was created for play on the IBM 701. He initiated alpha-beta pruning, a design that measures each side’s chances to win.

This computer program chooses its next move using a minimax algorithm, which calculates the best possible move for a player in a game by minimizing the opponent’s maximum gain and maximizing the player’s minimum gain.

Arthur Samuel is the first person to create and popularize the term “machine learning.”

1956 – The Birthplace of Artificial Intelligence

En la historia del aprendizaje automático, el taller de Dartmouth de 1956 se considera el acontecimiento fundacional de la inteligencia artificial como campo. El informático John McCarthy invitó a conocidos matemáticos, científicos e investigadores a un taller de seis a ocho semanas de duración. Se reunieron en el Dartmouth College para establecer y dar ideas sobre los campos de investigación de la IA y el ML.

Taller de la universidad de Dartmouth 1956

1958 – The Perceptron

The psychologist Frank Rosenblatt attempted to build “the first machine capable of producing an original idea” and subsequently designed the Perceptron, the first neural network ever produced.

He combined Donald Hebb?s model of brain cell interaction with Arthur Samuel?s machine learning efforts. It was fed a series of punch cards and, after 50 tries, learned to identify cards with markings on the left from markings on the right.

Despite its promise, the perceptron could not identify many kinds of visual patterns causing researchers to become frustrated. It would be several years before investors’ and funding agencies’ frustrations faded away.

1963 – A Game of Tic Tac Toe

El informático Donald Michel diseñó Machine Educable Noughts And Crosses Engine (MENACE), una gran pila de cajas de cerillas que contenía varias cuentas y que utilizaba el aprendizaje por refuerzo para jugar al tres en raya.

MENACE funciona un poco como una red neuronal. Se optimiza al azar inicialmente, pero después de jugar unas cuantas partidas, se ajusta para favorecer las estrategias ganadoras en cada situación.

Puedes competir con MENACE aquí.

1965 – The Multilayer Neural Networks Presented

Alexey (Oleksii) Ivakhnenko and Valentin Lapa are scientists who worked together to develop the first-ever multi-layer perceptron. It’s a hierarchical representation of a neural network that uses a polynomial activation function and is trained using the Group Method of Data Handling (GMDH).

Ivakhnenko suele ser considerado el padre del aprendizaje profundo.

1967 – The Nearest Neighbor Algorithm

Thomas Cover and Peter Hart published his “Nearest Neighbor Pattern Classification” in 1967. It laid a foundation for recognizing patterns and regression in machine learning.

El algoritmo del vecino más cercano es un método de reconocimiento de patrones muy básico que se desarrolló para permitir a los ordenadores realizar una detección de patrones rudimentaria. Funciona comparando los datos existentes y clasificándolos como el vecino más cercano, es decir, el elemento más similar en la memoria, lo que puede ayudar a los vendedores de viajes en una ciudad al azar.

Consulte nuestra página de servicios para disponer de nuestros Servicios de desarrollo de aprendizaje automático

1973 – 20th Century AI Winter

The Lighthill report by James Lighthill in 1973 presented a very pessimistic forecast for the development of core aspects in AI research, stating, “In no part of the field have the discoveries made so far produced the major impact that was then promised.? As a result, the British government cut the funding for AI research in all but two universities. It’s part of the history of machine learning known as the AI winter.

1979 – Neocognitron and The Stanford Cart

El informático japonés Kunihiko Fukushima publica su trabajo sobre el Neocognitrón, una red jerárquica multicapa utilizada para detectar patrones e inspirar las redes neuronales convolucionales utilizadas para analizar imágenes. Esto provocó una revolución en lo que ahora llamamos IA.

Carro de Stanford 1979

Ese mismo año, un grupo de investigadores de la Universidad de Stanford creó un robot llamado Cart. Fue un esfuerzo de décadas que evolucionó en varias formas desde 1960 hasta 1980. Creado inicialmente como un robot móvil equipado con un televisor a control remoto, se convirtió en una máquina conectada por radio a un gran ordenador central que puede sortear los obstáculos de una habitación de forma independiente.

The invention was state-of-the-art at the time, and machine learning shifted as a probable tool to create and eventually revitalize an autonomous vehicle.

1981 – Explanation Based-Learning

Machine learning has come a long way since its inception in 1981. That year, Gerald Dejong introduced the concept of Explanation Based Learning (EBL), in which a computer analyses training data and creates a general rule it can follow by discarding unimportant data. For example, if the software is instructed to concentrate on the queen in chess, it will discard all non-immediate-effect pieces. This laid the foundation for modern supervised learning techniques.

1982 – The Hopfield Network

In 1982, American scientist John Hopfield creates Hopfield Network, which is nothing but a recurrent neural network. It’s a special kind whose response differs from other neural networks.

La red de Hopfield es una memoria asociativa, lo que significa que puede almacenar y recordar patrones. Sirve como un sistema de memoria direccionable de contenido y sería fundamental para otros modelos de RNN de la era moderna del aprendizaje profundo.

Cita de Startechup nettalk

1985 – The NETTalk

A mediados de la década de 1980, Terrence Sejnowski y Charles R. Rosenberg desarrollan NETtalk. Se creó con el objetivo de construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.

Siguiendo un enfoque basado en el conocimiento, aprende a pronunciar un texto escrito en inglés al mostrársele un texto como entrada y compararlo con transcripciones fonéticas. Simplificando los modelos de las operaciones cognitivas humanas, podría generar un texto similar al que aprende un bebé.

1986 – Restricted Boltzmann Machine

Presentada inicialmente como Harmonium, la máquina de Boltzmann restringida (RBM) fue inventada por el científico cognitivo Paul Smolensky en 1986. Se hizo famosa después de que el científico de Stanford Geoffrey Hinton y sus colaboradores inventaran algoritmos de aprendizaje rápido para ellas a mediados de la década de 2000.

RBM is faster than the traditional Boltzmann Machine because it “restricts” connections between nodes. It’s an algorithm useful for dimensionality reduction, classification, regression, collaborative filtering, feature learning, and topic modeling.

1989 – Boosting for Machine Learning

The concept of boosting was first presented in a 1990 paper titled ?The Strength of Weak Learnability? by Robert Schapire and Yoav Freund. It marked a necessary development for the evolution of machine learning.

As Schapire states, “A set of weak learners can create a single strong learner.” It simply translates to producing numerous weaker models and combines their predictions to convert them into single powerful model.

Red neuronal

1991 – The Vanishing Gradient Problem

Although the start of the 1990s popularised methods such as support vector machines, there were still challenges found along the way. The vanishing gradient problem was first identified by Sepp Hochreiter. It was a challenge in machine learning development, specifically with deep neural networks.

A medida que aumenta el número de capas de una red, el valor de la derivada disminuye hasta que acaba desapareciendo por completo. Esto puede hacer que el proceso de aprendizaje sea extremadamente lento y difícil de gestionar.

Durante años, este asunto seguirá irritando a la comunidad.

1992 – Playing Backgammon

El investigador Gerald Tesauro creó un programa basado en una red neuronal artificial capaz de jugar al backgammon con habilidades que se equiparan a las de los mejores jugadores humanos. El software para jugar al backgammon, llamado TD-Gammon. Podía jugar a un alto nivel tras unas pocas horas de entrenamiento, y siguió mejorando a medida que jugaba más partidas.

The program’s success was a significant milestone in artificial intelligence and the history of machine learning, as it showed that neural networks could be used to create programs that could learn and improve through experience.

1997 – Deep Blue and the Milestone of LSTM

In 1997, IBM’s Deep Blue became the first computer chess-playing system to defeat a reigning world chess champion when it beat Garry Kasparov.

Tablero de ajedrez

It’s also the year when Sepp Hochreiter and Jürgen Schmidhuber published a groundbreaking paper on “Long Short-Term Memory” (LSTM). It’s a recurrent neural network architecture that will revolutionize deep learning in future decades.

2002 – The Release of Torch

En 2002, se publicó la biblioteca de aprendizaje automático de código abierto Torch. Esta biblioteca permitía más flexibilidad y personalización que otras bibliotecas de la época y rápidamente se hizo popular entre los investigadores.

2006 – Deep Belief Network

Este año marca un momento notable en la historia del aprendizaje automático porque Geoffrey Hinton creó algoritmos de aprendizaje rápido para explicar los nuevos algoritmos que ayudan a los ordenadores a distinguir objetos y texto en imágenes y vídeos.

Together with Ruslan Salakhutdinov, Osindero, and Teh, they published the paper ?A fast learning algorithm for deep belief nets,? in which they stacked multiple RBMs together in layers and called them Deep Belief Networks. The training process is much more efficient for large amounts of data.

2009 – ImageNet

Fei-Fei Li, profesor de Stanford, lanzó en 2009 ImageNet, una base de datos de 14 millones de imágenes etiquetadas. Sería un punto de referencia para los investigadores de aprendizaje profundo que participan en las competiciones de ImageNet (ILSVRC) cada año.

El Economista describió la creación de esta base de datos como un acontecimiento excepcional para popularizar la IA en toda la comunidad tecnológica, marcando una nueva era en la historia del aprendizaje profundo.

2010 – Microsoft’s Kinect

Un año notable para la historia del aprendizaje automático es el lanzamiento de Kinect, un dispositivo de entrada con sensor de movimiento para la consola de juegos Xbox 360. Puede rastrear 20 rasgos humanos diferentes a un ritmo de 30 veces por segundo.

2011 – IBM’s Watson and Google Brain

Watson es un sistema cognitivo basado en la inteligencia artificial y el procesamiento del lenguaje natural desarrollado por IBM. En 2011, Watson compitió en el programa de juegos Jeopardy! contra dos competidores humanos y ganó. Esto lo convirtió en el primer sistema informático que ganó un concurso contra humanos.

IBM Watson en Jeopardy! 2011

During the same year, Google?s X Lab team developed a machine learning algorithm named Google Brain. The aim was to create a deep neural network that could learn how to autonomously browse youtube videos and recognize cats in digital images, just like the human brain.

El equipo presentó su papel, “Building high-level features using large scale unsupervised learning,” that highlighted the discovery of the possibility of training a face detector without having to label images as containing a face or not. It was a significant breakthrough in the history of machine learning, especially in image processing.

2012 – ImageNet Classification

En 2012, Alex Krizhevsky, Geoffrey Hinton e Ilya Sutskever publicaron un artículo de investigación en el que detallaban un modelo que puede reducir a pasos agigantados la tasa de error en los sistemas de reconocimiento de imágenes.

AlexNet, a GPU-based CNN model created by Alex Krizhevsky, won Imagenet’s image classification contest with an accuracy of 84%. It significantly improved over the 75 percent success rate of prior models. This victory starts a deep learning revolution that will span the globe.

2014 – Facebook’s DeepFace and Google’s Sibyl

Facebook developed DeepFace, a deep learning facial software algorithm that can recognize and verify individuals on photos with an accuracy of a human. It’s one of the advanced computer algorithms that can identify human faces with an accuracy of 97.35%. This landmark achievement in facial recognition algorithms will profoundly impact Facebook’s ability to keep user data secure and fight crime.

Another milestone in the history of machine learning is the release of Google’s Sibyl, a large-scale machine learning system, to the public. The system also includes numerous sophisticated algorithms for predicting user behavior.

Contacto con Startechup

2015 – Platform for Machine Learning Algorithms and Toolkit

Amazon lanza su propia plataforma de aprendizaje automático. El gigante del comercio electrónico pone el aprendizaje automático al alcance de cualquiera que tenga una cuenta de Amazon Web Services (AWS). La plataforma ofrece un conjunto de herramientas y algoritmos para que los científicos de datos construyan y entrenen modelos.

Microsoft también había desarrollado el kit de herramientas de aprendizaje automático distribuido, que permitía compartir eficazmente los problemas de aprendizaje automático entre varios ordenadores.

2016 – AlphaGo Algorithm and Face2Face

El Go es un antiguo juego de mesa chino con tantos movimientos posibles en cada paso que las posiciones futuras son difíciles de predecir. Cuando el algoritmo AlphaGo se desarrolló en marzo de 2016, sorprendió al mundo al derrotar a uno de los mejores jugadores de Go, Lee Sedol.

Also in 2016, a team of scientists unveiled Face2Face at the Conference on Computer Vision and Pattern Recognition. Most “DeepFake” software today is based on its framework and algorithms.

2017 – Waymo

Waymo became the first self-driving car company to operate without human intervention. The company’s vehicles have now driven over 5 million miles on public roads, with human drivers only intervening when necessary. The launch of Waymo’s self-driving taxi service marked a major milestone for the company, and it is now working towards expanding its fleet of vehicles and services. Later the same year, they introduce completely autonomous taxis in the city of Phoenix.

2018 – DeepMind’s AlphaFold

Tras crear AlphaGo, el equipo dio el primer paso en el desarrollo de algoritmos para problemas exactamente iguales al plegado de proteínas. AlphaFold se construyó para predecir las formas 3D de las proteínas, las moléculas fundamentales de la vida. Entrenaron una red neuronal con miles de proteínas conocidas hasta que pudo predecir de forma independiente estructuras 3D a partir de aminoácidos. Finalmente, la utiliza para predecir las distancias entre pares de aminoácidos y los ángulos entre los enlaces químicos que los conectan.

2020 – GPT-3 and the Rise of No-Code AI

Startechup no-code ai quote

When the world was grappling with the pandemic in 2020, OpenAI created an artificial intelligence algorithm, GPT-3, that could generate human-like text. In its time, it’s the most advanced language model in the world, using 175 billion parameters and Microsoft Azure’s AI supercomputer for training.

Aparte de eso, Zapier discovers an enormous rise in the use of no-code or low-code AI tools from the beginning of 2020. Some popular no-code AI platforms include Google’s AutoML, Amazon’s SageMaker, and Microsoft’s Azure ML. It allows users with no coding experience to train and deploy machine learning algorithms. This movement is encouraged by the demand for businesses to produce AI applications fast at no extra cost.

2021 – AI4LIFE and TrustML

Indian American computer scientist Himabindu “Hima” Lakkaraju not only co-founds the Trustworthy ML Initiative (TrustML), but she also leads the AI4LIFE research group at Harvard. Her goal is to make machine learning more attainable for laypeople while continuing studies on how to make these models interpretable, fair, private, and secure.

2022 y el futuro del aprendizaje automático

Machine learning is evolving at an amazing pace and shows no signs of slowing down. At the beginning of 2022, we’ve already seen it progressing even further as cognitive services software applications rise. Machine learning was even defined by Stanford University as ?the science of getting computers to act without being explicitly programmed.?

En el futuro, podemos esperar mejoras del aprendizaje automático en:

Aprendizaje automático cuántico (QML)

Quantum computers lead to faster processing of data, enhancing the algorithm’s ability to analyze and draw meaningful insights from data sets.

Algoritmos de aprendizaje no supervisado

El aprendizaje supervisado y no supervisado es importante en la historia del aprendizaje automático, pero este último se convertirá en el ideal para las empresas que quieran aplicar planes de venta cruzada.

Gestión de la operacionalización del aprendizaje automático (MLOps)

Esto ayuda a que los algoritmos de aprendizaje automático desplegados en producción tengan un rendimiento óptimo y fiable.

Automatización de procesos robóticos

Aprendizaje automático (AutoML)

AutoML facilitará el proceso de formación de datos para ayudar a etiquetar los datos y reducir los errores humanos en las operaciones

Automatización de procesos robóticos (RPA)

Antes de que un bot RPA pueda procesar los datos, es necesario un enfoque basado en datos, y el aprendizaje automático le ayudará a producir menos errores.

Descubra el aprendizaje automático con nosotros

Undeniably, machine learning trends are vital in enterprises as they enable entrepreneurs to understand customers? behavior and business functioning behavior. If you want to discover how machine learning can help your business, contacto con nosotros!

Sobre el autor: Andrea Jacinto - Redactor de contenidos

Escritora de contenidos con una sólida formación en SEO, Andrea ha estado trabajando con vendedores digitales de diferentes campos para crear artículos optimizados que sean informativos, digeribles y divertidos de leer. Ahora, escribe para StarTechUP con el fin de ofrecer los últimos avances en tecnología a los lectores de todo el mundo. Ver en Linkedin

MÁS INFORMACIÓN