A entropia de Shannon: uma abordagem axiomática

REMAT: Revista Eletrônica da Matemática

Endereço:
Rua. Gen. Osório - Centro
Bento Gonçalves / RS
Site: https://periodicos.ifrs.edu.br/index.php/REMAT
Telefone: (54) 3204-2100
ISSN: 2447-2689
Editor Chefe: Greice da Silva Lorenzzetti Andreis
Início Publicação: 02/08/2015
Periodicidade: Semestral
Área de Estudo: Ciências Exatas, Área de Estudo: Matemática

A entropia de Shannon: uma abordagem axiomática

Ano: 2021 | Volume: 7 | Número: 1
Autores: José Carlos Magossi, Antônio César da Costa Barros
Autor Correspondente: José Carlos Magossi | [email protected]

Palavras-chave: Axiomas; Entropia; Comunicação; Teoria de Shannon; Equação Funcional

Resumos Cadastrados

Resumo Português:

A palavra "entropia" surgiu no ano de 1864, nos trabalhos de Termodinâmica de Rudolf Clausius. Em 1948, Claude E. Shannon utiliza esse mesmo nome para designar uma medida de informação em seu modelo matemático de comunicação, fundamentado nos conceitos de emissor, receptor, canal, ruído, redundância, codificação e decodificação. Com a medida de informação H(X)=-C*sum_{i=1}^n[pi*log (pi)], a entropia de Shannon, torna-se possível analisar a capacidade do canal de comunicação e investir em tratamentos de dados, dando origem ao que se chama atualmente de Teoria da Informação. Além dos aspectos operacionais e tecnológicos da teoria de Shannon, que revelam a era digital, as abordagens matemáticas acerca da fórmula H(X) acabam por revelar também uma vertente voltada às caracterizações de medidas de informação. Entende-se que uma exposição didática da dedução matemática da fórmula de entropia de Shannon, com base em um conjunto de axiomas, seja interessante não somente no sentido pedagógico, mas também para o entendimento da teoria de Shannon. Mostra-se, desse modo, que essa fórmula está imersa em um contexto matemático bem definido (um sistema com axiomas e equações funcionais), que permite, com alterações nos axiomas, definir novas medidas de informação.



Resumo Inglês:

The word "entropy" arose in the year 1864, in the works of thermodynamics by Rudolf Clausius. In 1948, Claude E. Shannon uses that same name to designate a measure of information in his mathematical model of communication, based on the concepts of emitter, receiver, channel, noise, redundancy, coding and decoding. With the measure of information H(X)=-C*sum_{i=1}^n[pi*log (pi)], the Shannon entropy, it becomes possible to analyze the capacity of the communication channel and invest in data processing, giving rise to what is currently called Information Theory. In addition to the operational and technological aspects of theory of Shannon, that reveal the digital age, from mathematical approaches about the formula H(X), also end up revealing a tendency focused on the characterization of information measures. It is understood that an exposure didactic of mathematical deduction of the formula from Shannon entropy, based on a group of axioms, not only is interesting in the pedagogical sense, but also for understanding theory of Shannon. It thereby show, that this formula is immersed in a well-defined mathematical context (a system with axioms and functional equations), allowing, with changes in the axioms, defining new measures of information.