Hemos actualizado nuestro Política de privacidad para aclarar cómo usamos sus datos personales.

Usamos cookies para brindarle una mejor experiencia. Puede leer nuestro Política de cookies aquí.

Publicidad
artículo

Aprendizaje supervisado o no supervisado

artículo

Aprendizaje supervisado o no supervisado

tiempo de lectura :

¿Qué es el aprendizaje supervisado? Combinado con big data, esta técnica de aprendizaje automático tiene el poder de cambiar el mundo. En este artículo, exploraremos el tema del aprendizaje supervisado, pero primero tocaremos algo de la historia reciente del aprendizaje automático.

En 2012, Alex Krizhevsky, investigador de la Universidad de Toronto, inició la tercera edad de oro de la inteligencia artificial. Por un amplio margen, superó el estado del arte en etiquetado automático de ImageNet 1 , una base de datos de más de un millón de imágenes de 1000 categorías diferentes que van desde canoas a gatos y ranas a perritos calientes. Si alguna vez se preguntó por qué la inteligencia artificial ha estado en todas las noticias en la última década, la exageración comenzó con este gran avance.

El enfoque novedoso de Alex fue paralelizar el cálculo de sus redes neuronales, permitiéndoles ser más amplias y profundas que nunca 2 . ¿Pero cómo entrenó realmente a su red? Todo se reduce al aprendizaje supervisado.

¿Qué es el aprendizaje supervisado?


Todo lo que necesita para el aprendizaje supervisado son algunas muestras de datos y sus etiquetas. Queremos entrenar un modelo para que adivine la etiqueta correcta de cada muestra de datos.

La red de Alex adivina las cinco clases más probables para algunas imágenes en ImageNet 2

Este método de aprendizaje es intrínseco para todos nosotros. Si alguna vez has practicado un idioma, has revisado para un examen de matemáticas o has hecho una prueba de pub, entonces has aprendido bajo supervisión. Imagina que le tiendes una manzana a un bebé y le preguntas, "¿Qué es esto?". El bebé señala la manzana y declara "¡¡Plátano!". El bebé estaba cerca, pero hubo algún error en su predicción. "App-le", dices. El bebé actualiza su modelo de lenguaje, y la próxima vez que le muestres a la manzana, dice "¡¡Appum !!". Con el tiempo, ese bebé aprenderá a decir "Apple".

Esta es exactamente la fórmula de actualización utilizada en el aprendizaje supervisado. En resumen, estamos probando nuestro modelo, el bebé, con preguntas y supervisando con respuestas verdaderas. O en términos estadísticos, ajustamos modelos para minimizar el error entre sus predicciones y la verdad básica.

Estabas posando al bebé a clasificación problema, ya que necesitaba una respuesta categórica. Otros tipos de preguntas se refieren a la estimación de cantidades, que llamamos regresión problemas. Estos incluyen adivinar el precio de una casa, la edad de alguien o el peso de su maleta.

Continuemos con nuestra historia de aprendizaje automático. Estamos en 2015 y Kaiming He, un investigador de Microsoft, construye una red neuronal supervisada que, por primera vez, supera el rendimiento a nivel humano en la clasificación de ImageNet 3 . Desde entonces, el enfoque se ha desplazado hacia el aprendizaje no supervisado y lo que podemos lograr sin etiquetas.

¿Qué es el aprendizaje no supervisado?


En pocas palabras, el aprendizaje no supervisado es solo aprendizaje supervisado pero sin las etiquetas. Pero entonces, ¿cómo podemos aprender algo sin un conjunto de 'respuestas verdaderas'?

El aprendizaje no supervisado aborda esta tarea aparentemente imposible de aprender información útil sin ningún conocimiento previo específico de muestra. Recuerde a nuestro bebé de aprendizaje supervisado. Cuando nació, nunca había visto ningún objeto antes y no sabía una sola palabra. ¿Cómo lo hizo?¿Pasar de no saber nada sobre el mundo a saber algo? Un término popular para este tipo de problema en informática es arranque , llamado así porque la tarea es similar a elevarse por sus propios medios.

Agrupación en clústeres no supervisada en ImageNet 1 . ¿Está de acuerdo con las agrupaciones roja y verde en seres vivos y no vivos, o lo habría hecho de manera diferente? ¿Quizás por color o hora del día?

Esto generalmente se logra haciendo suposiciones genéricas sobre el conjunto de datos en su conjunto. Las más populares son :

  • agrupación - asumiendo que los datos caen naturalmente en un número finito de grupos distintos. Podríamos esperar que las 1000 clases de ImageNet se dividan en 1000 grupos. Los algoritmos que ayudan a decidir qué datos deben ir en qué grupo incluyen métodos basados ​​en centroides como k-medias yModelos de mezcla gaussiana y enfoques basados ​​en gráficos como la agrupación espectral.
  • Reducción de dimensionalidad - asumiendo que los datos se pueden comprimir mientras se preserva la integridad de los datos. Los algoritmos cotidianos que usamos son formatos de compresión con pérdida como JPEG y MP3. También usamos análisis de componentes principales y codificadores automáticos.
  • detección de anomalías - esperando que las muestras anómalas se encuentren fuera de la distribución de las normales. Al mostrar nuestro modelo solo muestras normativas, las anómalas son marcadas por su distancia de la población normativa. En la práctica asumimos que la población normativa sigue una distribución gaussiana y definimos anomalías comomintiendo cierto número de desviaciones estándar de la media.


aprendizaje auto supervisado


Los métodos auto-supervisados ​​representan un subconjunto fascinante de aprendizaje no supervisado. En el contexto del aprendizaje profundo de extremo a extremo, todavía necesitamos algún tipo de señal de supervisión para la capacitación. Esto significa que necesitamos diseñar objetivos de aprendizaje que sean una función desolo las muestras de datos. Los investigadores han sido creativos aquí. Para los modelos de lenguaje, esto podría significar completar la palabra en blanco en una oración, como :

¿Las máquinas se harán cargo de la palabra ?

y para modelos entrenados en imágenes, resolviendo rompecabezas

Dado b, el modelo debe reorganizar las piezas de la sierra para reconstruir a 4

Con razón, puede cuestionar la utilidad de una IA que resuelve rompecabezas. Pero realizar una tarea genérica como esta requiere aprender información importante sobre los datos. Para reorganizar el tigre, primero debe aprender cómo se ve.

Aprendizaje semi-supervisado: lo mejor de ambos mundos


Una combinación de aprendizaje supervisado y no supervisado, este escenario pregunta qué podemos aprender cuando solo se etiqueta un subconjunto del conjunto de datos. Por lo general, esto implica aprender una representación poderosa de los datos a través de un entrenamiento previo no supervisado, seguido de una calibración y pruebas supervisadasen el conjunto etiquetado más pequeño. Al aprender primero del conjunto sin etiquetar abundante y barato, podemos lograr mejores resultados que si solo realizáramos un entrenamiento supervisado utilizando el subconjunto etiquetado.

Cuándo usar el aprendizaje supervisado o no supervisado


Para el aprendizaje supervisado, necesitamos etiquetas. Pero anotar sus datos no siempre es tan fácil.


problemas de etiquetado 2 . ¿La primera imagen es realmente una rejilla? ¿La tercera imagen es un perro o algunas cerezas? ¿Cómo etiquetaría estas imágenes?

Algunos problemas que puede encontrar son :

  1. Big data : Asignar una etiqueta para cada muestra en su conjunto de datos puede ser oportuno y costoso, especialmente si requieren un experto en imágenes médicas.
  2. Varias clases por muestra : Su conjunto de datos puede requerir varias etiquetas por muestra si pertenece o exhibe múltiples clases. ¿La tercera imagen sobre un perro, algunas cerezas o ambas?
  3. Etiquetado denso : Cada dimensión de sus datos multivariados puede necesitar una etiqueta que puede resultar muy costosa. Por ejemplo, si estamos entrenando una red para dibujar contornos alrededor de manzanas. Por lo general, necesitamos que cada píxel esté etiquetado como perteneciente a una manzana o al fondo.

Si sus datos vienen preempaquetados con etiquetas, el aprendizaje supervisado es un excelente lugar para comenzar. Puede permitirle comparar el rendimiento de diferentes modelos y proporcionar intuición sobre la dificultad de la tarea de predicción. Sin embargo, tenga en cuenta que la precisiónde sus etiquetas puede estar en peligro por :

  1. Errores de etiquetado , como sesgo o varianza sistemática. En otras palabras, es posible que diferentes anotadores no asignen las mismas etiquetas a las mismas muestras. Esto se denomina acuerdo entre evaluadores y puede ser alarmantemente bajo. De hecho, las etiquetas de la misma persona no están garantizadaspara ser consistente; se encontró los jueces dan sentencias más ligeras después de almorzar .
  2. Representaciones categóricas de variables continuas , donde varios niveles diferentes de una variable se agrupan en el mismo valor discreto, destruyendo así el matiz en la variable.
  3. Sin tener en cuenta las relaciones de clase . Las variables categóricas independientes ignoran la superposición de clases. Por ejemplo, sabemos que los gatos están conceptualmente más cerca de los perros que de los rascacielos. Sin embargo, las etiquetas categóricas simples no codificarán este hecho.

Los bebés aprenden mucho por sí mismos. En la conferencia NeurIPS de 2016, Yann Lecun, uno de los tres padrinos de la inteligencia artificial, dijo :

"Si la inteligencia es un pastel, la mayor parte del pastel es el aprendizaje sin supervisión, la guinda del pastel es el aprendizaje supervisado"

Los métodos de aprendizaje profundo no supervisados ​​han experimentado un progreso significativo en los últimos años, con su desempeño acercándose rápidamente a su contrapartes supervisadas en el desafío ImageNet. Una vez que conozca los pros y los contras de ambos estilos de aprendizaje, elegir entre sin supervisión o supervisado, o una combinación, depende de usted y su conjunto de datos.

Referencias


  1. Deng J, Dong W, Socher R, et al. ImageNet: Una base de datos de imágenes jerárquicas a gran escala. En: Conferencia IEEE de 2009 sobre visión por computadora y reconocimiento de patrones ; 2009: 248-255. Doi : 10.1109 / CVPR.2009.5206848
  2. Krizhevsky A, Sutskever I, Hinton GE. Clasificación de ImageNet con redes neuronales convolucionales profundas. Comun ACM . 2017; 60 6: 84-90. Doi : 10.1145 / 3065386
  3. He K, Zhang X, Ren S, Sun J. Aprendizaje profundo residual para el reconocimiento de imágenes. arXiv: 151203385 [cs] . Publicado en línea el 10 de diciembre de 2015. Consultado el 17 de agosto de 2021. http://arxiv.org/abs/1512.03385
  4. Noroozi M, Favaro P. Aprendizaje no supervisado de representaciones visuales mediante la resolución de rompecabezas. ArXiv: 160309246 [cs]. Publicado en línea el 22 de agosto de 2017. Consultado el 17 de agosto de 2021. http://arxiv.org/abs/1603.09246
Publicidad