Todo lo que te da miedo preguntar sobre machine learning

Todo lo que debes saber del machine learning

Todo lo que te da miedo preguntar sobre machine learning

La Inteligencia Artificial evoluciona a pasos agigantados, siendo actualmente una de las ciencias más complejas. Cuando nos referimos a complejidad, no hablamos del nivel de dificultad para comprender e innovar (aunque ciertamente en este caso es bastante alto), sino que nos referimos al grado de interrelación con otros campos aparentemente desconectados

Las escuelas de pensamiento en machine learning

Hay dos “escuelas” de pensamiento sobre cómo una IA debe ser construida de forma apropiada:

  • Los Coneccionistas: parten del supuesto de que debemos inspirarnos en las redes neuronales del cerebro humano.
  • Los Simbolistas: prefieren moverse de los bancos de conocimiento y las reglas fijas sobre cómo funciona el mundo.

Además, esta diferente manera de ver las cosas, está haciendo que se lleven a cabo estrategias de resolución de problemas totalmente diferentes: se puede resolver un problema a través de un algoritmo más simple, que aumenta su precisión en el tiempo (enfoque de iteración), o se puede dividir el problema en bloques cada vez más pequeños (enfoque de descomposición secuencial paralela).

Hasta la fecha, no hay una respuesta clara sobre qué enfoque o escuela de pensamiento funciona mejor, por lo que lo mejor es discutir brevemente los principales avances tanto en las técnicas de aprendizaje puro de la máquina como en la neurociencia con una lente agnóstica.

Aprendizaje de la máquina

Las técnicas de aprendizaje automático pueden dividirse a grandes rasgos en métodos supervisados y métodos no supervisados, con la principal diferencia de si los datos están etiquetados (aprendizaje supervisado) o no (no supervisado). Una tercera clase puede ser introducida cuando hablamos de IA: aprendizaje de refuerzo (RL). El RL es un método de aprendizaje para máquinas basado en la simple idea de la retroalimentación de recompensas: la máquina actúa de hecho en un conjunto específico de circunstancias con el objetivo de maximizar la recompensa potencial futura (acumulativa). En otras palabras, es un método intermedio de ensayo y error entre el aprendizaje supervisado y el no supervisado. 

La LR suele venir acompañada de dos problemas importantes, a saber, el problema de la asignación de créditos y el dilema de exploración y explotación, además de una serie de cuestiones técnicas como la maldición de la dimensionalidad, los entornos no estacionarios o la observabilidad parcial del problema. El primero se refiere al hecho de que las recompensas son, por definición, retrasadas, y puede ser que se necesite una serie de acciones específicas para lograr su objetivo. El problema consiste entonces en identificar cuál de las acciones precedentes fue realmente responsable del resultado final (y obtener la recompensa entonces), y en caso afirmativo en qué medida. Este último problema es, en cambio, un problema de búsqueda óptima: el software debe cartografiar el entorno con la mayor precisión posible para averiguar su estructura de recompensa. Existe un problema de parada óptima, una especie de satisfacción en efecto: ¿hasta qué punto el agente debe seguir explorando el espacio para buscar mejores estrategias, o empezar a explotar las que ya conoce (y sabe que funcionan)?

Además, los algoritmos de aprendizaje automático pueden clasificarse en función de los resultados que producen: algoritmos de clasificación; regresiones; métodos de agrupación; estimación de la densidad; y métodos de reducción de la dimensionalidad.

Neurociencia en machine learning

La arquitectura estándar de cualquier SNNA consiste en tener una serie de nodos dispuestos en una capa de entrada, una capa de salida y un número variable de capas ocultas (que caracterizan la profundidad de la red). Las entradas de cada capa se multiplican por un cierto peso de conexión y se suman, para ser comparadas con un nivel de umbral. La señal obtenida a través de la suma se pasa a una función de transferencia, para producir una señal de salida que, a su vez, se pasa como entrada a la capa siguiente. El aprendizaje se produce en las múltiples iteraciones de este proceso, y se calcula cuantitativamente eligiendo los factores de ponderación que minimizan el error de mapeo de entrada-salida dado un determinado conjunto de datos de entrenamiento.

A menudo también se las denomina Aprendizaje Profundo (AD), sobre todo en los casos en los que hay muchas capas que realicen tareas de cálculo. Existen muchos tipos de RNA hasta la fecha, pero las más conocidas son las Redes Neuronales Recurrentes (RNN).

Las redes neuronales artificiales son un enfoque de inspiración biológica que permite al software aprender de los datos de observación – en este sentido a veces se dice que imitan el cerebro humano. La primera RNA denominada Unidad Lógica de Umbral (TLU) fue introducida en los años cuarenta por McCulloch y Pitts (1943), y posteriormente, cuarenta años más tarde Rumelhart y otros (1986) impulsaron el campo diseñando el algoritmo de entrenamiento de retropropagación para los perceptrones multicapa (MLP) de avance.

Las RNNs usan información secuencial para hacer predicciones precisas. En las RNA tradicionales, todas las entradas son independientes unas de otras. Las RNN realizan en cambio una determinada tarea para cada elemento de la secuencia, manteniendo una especie de memoria de los cálculos anteriores. 

Lo cierto es que el DL es, sin duda, un gran paso adelante hacia la creación de un AGI, pero también tiene algunas limitaciones. La fundamental es la excepcional cantidad de datos necesarios para trabajar correctamente, lo que representa la mayor barrera para una aplicación transversal más amplia. La DL tampoco es fácil de depurar, y por lo general, los problemas se resuelven alimentando más y más datos en la red, lo que crea una gran dependencia hacia los datos. 
La necesidad de datos va a suponer una considerable cantidad de tiempo para entrenar una red. Para poder optimizar tiempos, las redes suelen entrenarse en paralelo, ya sea dividiendo el modelo entre diferentes máquinas en diferentes tarjetas GPU o en diferentes cubos de datos a través del mismo modelo ejecutado en diferentes máquinas para poder ajustar los parámetros.

Noticias y Publicaciones

Google Cloud Next OnAir para Europa, del 29 de septiembre al 27 de octubre

Google Cloud Next OnAir para Europa, del 29 de septiembre al 27 de octubre

Google Cloud Next OnAir para Europa, del 29 de septiembre al 27 de octubre A partir del martes 29 de septiembre se celebra semanalmente Google Cloud Next OnAir para la región EMEA (Europa, Oriente Medio y África). Se trata de la versión online del mayor evento de Google Cloud enfocado a los ...
Google Cloud ayuda a las PYMES a obtener un 222% de ROI, según la consultora IDC

Google Cloud ayuda a las PYMES a obtener un 222% de ROI, según la consultora IDC

Google Cloud ayuda a las PYMES a obtener un 222% de ROI, según la consultora IDC Un estudio de IDC muestra que la plataforma de Google Cloud ayuda a las pequeñas y medianas empresas (PYMES) a acelerar el crecimiento de su negocio con un 222% de retorno de la inversión en 3 añosEl El estudio ...
Día Internacional del/de la Programador/a

Día Internacional del/de la Programador/a

Día Internacional del/de la Programador/a El 12 de septiembre de 2020 se celebra el día internacional del/ de la programador/a, una conmemoración que esconde algunas curiosidades que vale la pena descubrir. La celebración coincide con el día número 256 del año, por lo que la celebración suele ser ...

Al hacer clic en "Aceptar todas las cookies", acepta que las cookies se guarden en su dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y colaborar con nuestros estudios de marketing.    Política de Cookies

Los ajustes de cookies en esta web están configurados para «permitir las cookies» y ofrecerte la mejor experiencia de navegación posible. Si sigues usando esta web sin cambiar tus ajustes de cookies o haces clic en «Aceptar», estarás dando tu consentimiento a esto.

Cerrar