Hemos actualizado nuestro Política de privacidad para aclarar cómo usamos sus datos personales.

Usamos cookies para brindarle una mejor experiencia. Puede leer nuestro Política de cookies aquí.

Publicidad
artículo

Cómo se beneficia una buena conversación de la compresión de datos

artículo

Cómo se beneficia una buena conversación de la compresión de datos

tiempo de lectura :

¿Qué es la reducción de dimensionalidad?


¿Qué significa "big data" para usted? Para la mayoría, se refiere a enormes conjuntos de datos que comprenden millones de puntos de datos. Se ha convertido en una parte fundamental de nuestra cultura dependiente de la tecnología. Hasta ahora, se han subido a Instagram la asombrosa cantidad de 50 mil millones de fotosy 250 mil millones a Facebook. Estamos acostumbrados a escuchar cómo el aprendizaje automático aprovecha estos conjuntos de datos cada vez más grandes para analizar tendencias y generar conocimientos novedosos. Sin embargo, lo 'grande' en 'big data' también puede referirse a los puntos de datos en sí.

Los teléfonos inteligentes ahora tienen cámaras de 4k. Tienen resoluciones de 3840 x 2160, lo que da como resultado la friolera de 8 millones de píxeles por imagen, o tamaños de archivo de 24 MB con una precisión de 24 bits. Una sola imagen médica puede ser aún más grande. Un 3D típicoLa resonancia magnética puede tener una resolución de 512 x 512 x 128, lo que da como resultado 33 millones de vóxeles píxeles 3D almacenados con 128 MB de memoria con una precisión de 32 bits. ¿Realmente un médico saca 33 millones de conclusiones de una sola exploración?

En última instancia, esto depende del tipo de conclusiones que nos interesen. Por ejemplo, un médico que clasifica el cáncer a partir de una exploración médica necesita saber cuántos tumores hay, su ubicación, tamaño y otras características. Esta información se puede escribirhacia abajo sin la necesidad de 33 millones de variables. Las imágenes con resoluciones más altas son deseables para una mejor detección, sin embargo, la cantidad de información simbólica relevante que contienen sigue siendo comparativamente pequeña.

¿Cómo entra la conversación en esto?


Imagina que estás describiendo la casa de tus sueños a un amigo.

“Está en un acantilado junto al mar, hecho con ladrillo rojo, dos pisos, una chimenea y enormes ventanales”.

Conversación como reducción de dimensionalidad :

Los codificadores automáticos consisten en un codificador, E mapea una entrada x a una versión Z de menor dimensión. Luego, D lo decodifica para dar x ̂. Por lo general, E y D son redes neuronales entrenadas para que x ̂ coincida con x lo más cerca posible enalguna definición predefinida de 'cercanía'.

Aquí, el habla sirve como un medio de bajo ancho de banda para la transferencia de información. Te ves obligado a comprimir o codificar la casa en el ojo de tu mente en palabras, que luego son decodificadas por el oyente. La esperanza es que la imagen que crean se parezca a laoriginal que imaginaba. Que sus palabras llevaban la esencia de lo que intentaba decir.

En este caso de reducción de dimensionalidad, asumimos que el mundo y todas sus complejidades pueden ser capturadas adecuadamente en palabras. Claramente, y para gran frustración de los escritores, nunca podremos describir completamente el mundo de esta manera. Siempre estamos perdiendo algunos maticesen el proceso y nunca podemos garantizar que nuestras palabras se interpreten de la misma manera cada vez que se lean. Dos personas que lean este artículo no habrán imaginado la misma casa. Una habilidad que comparten los buenos oradores y escritores es maximizar la cantidad de información relevantetransmiten en una cantidad determinada de palabras.

Sin embargo, existe una compensación entre retener la información que nos importa mientras se minimiza el tamaño del formato comprimido. Cualquier técnica de reducción, reconstrucción o eliminación de ruido de dimensionalidad, ya sea regresión lineal, análisis de componentes principales o codificadores automáticos, sigue esta línea.Los formatos de compresión con pérdida, como JPEG y MP3, funcionan según el mismo principio.

Entonces, ¿por qué no omitir la conversación por completo? ¿Por qué comprimir conceptos en absoluto?


Los beneficios de la compresión residen tanto en el proceso en sí como en el resultado final. Recuerde que los codificadores automáticos están capacitados para reconstruir datos. Esto puede parecer una tarea inútil; ¿de qué sirve reproducir lo que ya tiene? La clave está enla presencia de un cuello de botella de información, que para la comunicación humana es típicamente el habla, la gesticulación y el lenguaje corporal.

¿Alguna vez ha obtenido una mejor comprensión de una idea explicándola a otra persona? Si la desglosamos, aquí están sucediendo dos cosas. Los detalles superfluos se eliminan para revelar el concepto en su forma más simple, que se reorganiza simultáneamente paravolverse más comprensible. En el aprendizaje automático, el primero se denomina eliminación de ruido y el segundo, desenredo 1 . Ambos son propiedades inherentes de los codificadores automáticos 2 y conversadores hábiles. Esencialmente, sus puntos se vuelven más interpretables en su propia mente a través de su intento de hacerlo más comprensible para otra persona.

No es ningún secreto que no todos los ingenieros disfrutan de la conversación. Algunos van tan lejos como Elon Musk, buscando resolver el “
problema de velocidad de datos ”de la comunicación humana. Neuralink, la compañía de Musk, está desarrollando formas de eludir el habla por completo al vincular la mente a la máquina, aumentando así el ancho de banda de la comunicación humana.

Esto suena muy bien en teoría, y nunca sabremos todos los beneficios y consecuencias hasta que lo experimentemos por nosotros mismos. Imagínese conocer los pensamientos y sentimientos de otra persona exactamente como ellos. Tales conexiones íntimas podrían ayudarnos a ver más allá de nuestras diferencias superficiales.Pero, ¿podríamos perder la estructuración de nuestros pensamientos que implica la conversación?

Y si no podemos organizar e interpretar nuestros propios pensamientos y sentimientos, ¿cómo podemos esperar que alguien más nos entienda o, de hecho, que entendamos? ¿Deberíamos, en cambio, aceptar que nunca podremos conocer realmente las mentes de los demás?

Si sabe a qué me refiero.

Referencias:

1. Bengio Y, Courville A, Vincent P. Aprendizaje de representación: una revisión y nuevas perspectivas. arXiv: 12065538 [cs] . http://arxiv.org/abs/1206.5538 Publicado en línea el 23 de abril de 2014. Consultado el 30 de junio de 2021.

2. Rolinek M, Zietlow D, Martius G. Los codificadores automáticos variacionales siguen las instrucciones de la PCA por accidente.
arXiv: 181206775 [cs, stat] . http://arxiv.org/abs/1812.06775 Publicado en línea el 16 de abril de 2019. Consultado el 30 de junio de 2021.
Publicidad