El mismo valor que una máquina de movimiento perpetuo. Eso es porque es igualmente imposible.
Elimine algunas de las frases de su pregunta y será posible. Por ejemplo, omita el “sin pérdida de calidad” y “cualquier cosa” y ya tenemos tal para video.
Agregue esos de nuevo y es una imposibilidad física. Lo mejor que alguien podría esperar es obtener compresiones como esa en los datos más comunes, NO nada. Incluso eso es un sueño imposible en el mejor de los casos. Y hasta ahora, lo mejor que cualquiera podría lograr a lo largo de todo el historial de la computadora es obtener ese tipo de compresiones SOLO en tipos seleccionados de datos, no la mayoría de los datos, ni siquiera el 50% de los tipos de datos, no importa todo.
- ¿Crees que CNN es una noticia falsa?
- ¿Las noticias falsas han sido más útiles o perjudiciales para Donald Trump?
- ¿La afirmación de que el tamaño de la multitud de la inauguración de Trump es pequeño es un buen ejemplo de noticias falsas?
- ¿Las noticias falsas ahora se considerarían una nueva forma de guerra moderna?
- Cómo hacer un proyecto que pueda detectar noticias falsas con certeza
Pero adelante, inténtalo. Demuestra que funciona. Luego, haga que probadores independientes le arrojen todo tipo de archivos y les permita comprimir en una máquina y luego descomprimir en otra con solo transferir el archivo comprimido. Si pudiera promediar incluso solo 2 a 3 veces la compresión, ya sería MUCHO mejor que el mejor actualmente posible para el lote promedio de datos (es decir, CUALQUIER archivo).
Sin mencionar que la frase “menos de un segundo” no tiene sentido. Puedo pensar (y realmente usar) cualquier cantidad de conjuntos de datos que demoren MÁS de un segundo en copiarse en su estado sin comprimir. ¿Realmente quieres decirme que descomprimirlo sería más rápido que simplemente copiarlo?