1948
DOI: 10.1109/jrproc.1948.231941
|View full text |Cite
|
Sign up to set email alerts
|

The Philosophy of PCM

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

1
58
0
5

Year Published

1954
1954
2018
2018

Publication Types

Select...
4
3

Relationship

0
7

Authors

Journals

citations
Cited by 235 publications
(66 citation statements)
references
References 5 publications
1
58
0
5
Order By: Relevance
“…The origins of the theory of quantization of probability distributions date back to the three fundamental articles (Oliver et al, 1948;Bennett, 1948;Panter and Dite, 1951); the field of application was that of signal processing, in particular modulation and analog-to-digital conversion. See (Gray and Neuhoff, 1998) for a survey of the method and of its engineering applications, besides a huge list of references (mainly in the field of engineering); the book (Graf and Luschgy, 2000) gives a mathematically rigorous treatment of the subject.…”
Section: Introductionmentioning
confidence: 99%
“…The origins of the theory of quantization of probability distributions date back to the three fundamental articles (Oliver et al, 1948;Bennett, 1948;Panter and Dite, 1951); the field of application was that of signal processing, in particular modulation and analog-to-digital conversion. See (Gray and Neuhoff, 1998) for a survey of the method and of its engineering applications, besides a huge list of references (mainly in the field of engineering); the book (Graf and Luschgy, 2000) gives a mathematically rigorous treatment of the subject.…”
Section: Introductionmentioning
confidence: 99%
“…Shannon definió una función para medir la cantidad de información que produce una fuente F = (S, P ); a esta función le denominó entropía de la fuente y está expresada así: 6) la unidad de medida depende de la base logarítmica b empleada. Si se utiliza la base dos, la entropía se mide en bits (binary units); si se usa e como base, entonces la entropía se mide en nats (natural units); y si se emplea como base el diez, la entropía se mide en hartleys.…”
Section: Entropíaunclassified
“…Una de ellas se centra en generar funcionesóptimas para la predicción de la intensidad de cada pixel a partir de las intensidades de los pixeles vecinos y se conoce como codificación diferencial (differential coding) o codificación predictiva (predictive coding). La mayoría de las técnicas de este tipo se derivan de tres trabajos presentados a mediados del siglo pasado que han sido pilares fundamentales en el campo de la compresión de imágenes [6] [7], [8]. El valor proporcionado por la función de predicción para cada pixel se resta del valor del pixel y la diferencia resultante es lo que se transmite, tal como se ilustra en la Fig.…”
Section: Fig 26: Codificación Predictivaunclassified
See 2 more Smart Citations