Todo lo que te da miedo preguntar sobre machine learning

Todo lo que debes saber del machine learning

Todo lo que te da miedo preguntar sobre machine learning

La Inteligencia Artificial evoluciona a pasos agigantados, siendo actualmente una de las ciencias más complejas. Cuando nos referimos a complejidad, no hablamos del nivel de dificultad para comprender e innovar (aunque ciertamente en este caso es bastante alto), sino que nos referimos al grado de interrelación con otros campos aparentemente desconectados

Las escuelas de pensamiento en machine learning

Hay dos “escuelas” de pensamiento sobre cómo una IA debe ser construida de forma apropiada:

  • Los Coneccionistas: parten del supuesto de que debemos inspirarnos en las redes neuronales del cerebro humano.
  • Los Simbolistas: prefieren moverse de los bancos de conocimiento y las reglas fijas sobre cómo funciona el mundo.

Además, esta diferente manera de ver las cosas, está haciendo que se lleven a cabo estrategias de resolución de problemas totalmente diferentes: se puede resolver un problema a través de un algoritmo más simple, que aumenta su precisión en el tiempo (enfoque de iteración), o se puede dividir el problema en bloques cada vez más pequeños (enfoque de descomposición secuencial paralela).

Hasta la fecha, no hay una respuesta clara sobre qué enfoque o escuela de pensamiento funciona mejor, por lo que lo mejor es discutir brevemente los principales avances tanto en las técnicas de aprendizaje puro de la máquina como en la neurociencia con una lente agnóstica.

Aprendizaje de la máquina

Las técnicas de aprendizaje automático pueden dividirse a grandes rasgos en métodos supervisados y métodos no supervisados, con la principal diferencia de si los datos están etiquetados (aprendizaje supervisado) o no (no supervisado). Una tercera clase puede ser introducida cuando hablamos de IA: aprendizaje de refuerzo (RL). El RL es un método de aprendizaje para máquinas basado en la simple idea de la retroalimentación de recompensas: la máquina actúa de hecho en un conjunto específico de circunstancias con el objetivo de maximizar la recompensa potencial futura (acumulativa). En otras palabras, es un método intermedio de ensayo y error entre el aprendizaje supervisado y el no supervisado. 

La LR suele venir acompañada de dos problemas importantes, a saber, el problema de la asignación de créditos y el dilema de exploración y explotación, además de una serie de cuestiones técnicas como la maldición de la dimensionalidad, los entornos no estacionarios o la observabilidad parcial del problema. El primero se refiere al hecho de que las recompensas son, por definición, retrasadas, y puede ser que se necesite una serie de acciones específicas para lograr su objetivo. El problema consiste entonces en identificar cuál de las acciones precedentes fue realmente responsable del resultado final (y obtener la recompensa entonces), y en caso afirmativo en qué medida. Este último problema es, en cambio, un problema de búsqueda óptima: el software debe cartografiar el entorno con la mayor precisión posible para averiguar su estructura de recompensa. Existe un problema de parada óptima, una especie de satisfacción en efecto: ¿hasta qué punto el agente debe seguir explorando el espacio para buscar mejores estrategias, o empezar a explotar las que ya conoce (y sabe que funcionan)?

Además, los algoritmos de aprendizaje automático pueden clasificarse en función de los resultados que producen: algoritmos de clasificación; regresiones; métodos de agrupación; estimación de la densidad; y métodos de reducción de la dimensionalidad.

Neurociencia en machine learning

La arquitectura estándar de cualquier SNNA consiste en tener una serie de nodos dispuestos en una capa de entrada, una capa de salida y un número variable de capas ocultas (que caracterizan la profundidad de la red). Las entradas de cada capa se multiplican por un cierto peso de conexión y se suman, para ser comparadas con un nivel de umbral. La señal obtenida a través de la suma se pasa a una función de transferencia, para producir una señal de salida que, a su vez, se pasa como entrada a la capa siguiente. El aprendizaje se produce en las múltiples iteraciones de este proceso, y se calcula cuantitativamente eligiendo los factores de ponderación que minimizan el error de mapeo de entrada-salida dado un determinado conjunto de datos de entrenamiento.

A menudo también se las denomina Aprendizaje Profundo (AD), sobre todo en los casos en los que hay muchas capas que realicen tareas de cálculo. Existen muchos tipos de RNA hasta la fecha, pero las más conocidas son las Redes Neuronales Recurrentes (RNN).

Las redes neuronales artificiales son un enfoque de inspiración biológica que permite al software aprender de los datos de observación – en este sentido a veces se dice que imitan el cerebro humano. La primera RNA denominada Unidad Lógica de Umbral (TLU) fue introducida en los años cuarenta por McCulloch y Pitts (1943), y posteriormente, cuarenta años más tarde Rumelhart y otros (1986) impulsaron el campo diseñando el algoritmo de entrenamiento de retropropagación para los perceptrones multicapa (MLP) de avance.

Las RNNs usan información secuencial para hacer predicciones precisas. En las RNA tradicionales, todas las entradas son independientes unas de otras. Las RNN realizan en cambio una determinada tarea para cada elemento de la secuencia, manteniendo una especie de memoria de los cálculos anteriores. 

Lo cierto es que el DL es, sin duda, un gran paso adelante hacia la creación de un AGI, pero también tiene algunas limitaciones. La fundamental es la excepcional cantidad de datos necesarios para trabajar correctamente, lo que representa la mayor barrera para una aplicación transversal más amplia. La DL tampoco es fácil de depurar, y por lo general, los problemas se resuelven alimentando más y más datos en la red, lo que crea una gran dependencia hacia los datos. 
La necesidad de datos va a suponer una considerable cantidad de tiempo para entrenar una red. Para poder optimizar tiempos, las redes suelen entrenarse en paralelo, ya sea dividiendo el modelo entre diferentes máquinas en diferentes tarjetas GPU o en diferentes cubos de datos a través del mismo modelo ejecutado en diferentes máquinas para poder ajustar los parámetros.

Noticias y Publicaciones

Nace el primer diccionario multilingüe de terminología Big Data del mundo

Nace el primer diccionario multilingüe de terminología Big Data del mundo

Pretende ofrecer una terminología estándar que facilite la colaboración y entendimiento en Big Data 20 volúmenes componen La Terminología de Big Data, el primer diccionario multilingüe sobre términos y jerga de Big Data, llevado a cabo por el Laboratorio Clave de Estrategia de Big Data en China. ...
La investigación open source sube de nivel con Linux Foundation Research

La investigación open source sube de nivel con Linux Foundation Research

La Linux Foundation Research ​ampliará la comprensión de los proyectos de código abierto con ideas nunca antes vistas La Fundación Linux, una organización sin ánimo de lucro que fomenta la innovación masiva a través del código abierto, ha creado recientemente la Linux Foundation Research, una ...
La Responsabilidad Social Corporativa, más importante aún en la etapa post-COVID

La Responsabilidad Social Corporativa, más importante aún en la etapa post-COVID

En OpenSistemas somos un equipo comprometido con la Responsabilidad Social Corporativa en distintos aspectos de nuestra cultura. Uno de ellos, el deporte. Desde hace años, apoyamos iniciativas de clubes deportivos, como Judo Fontenebro. Con Judo Fontenebro nos sentimos muy identificados, tanto en ...

Al hacer clic en "Aceptar todas las cookies", acepta que las cookies se guarden en su dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y colaborar con nuestros estudios de marketing.    Política de Cookies

Los ajustes de cookies en esta web están configurados para «permitir las cookies» y ofrecerte la mejor experiencia de navegación posible. Si sigues usando esta web sin cambiar tus ajustes de cookies o haces clic en «Aceptar», estarás dando tu consentimiento a esto.

Cerrar