Advertisement
Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- \documentclass[12pt,a4paper,titlepage]{article}
- \setlength{\headheight}{15pt}
- \RequirePackage[T1]{fontenc}
- \RequirePackage[utf8]{inputenc}
- \usepackage{secdot}
- \usepackage{fancyhdr}
- \pagestyle{fancy}
- \fancyhf{}
- \rhead{2015/2016}
- \lhead{Teoria da Informação }
- \rfoot{Page \thepage}
- \begin{document}
- \title{Relatório TP2\\Teoria da Informação}
- \author{Diogo Martins \and Francisco Alves\and Frederico Cardoso}
- \maketitle
- \section* {\centering Introdução}\paragraph{}
- Este trabalho foi realizado no âmbito da disciplina de segundo ano de Teoria DA
- Informação. Consistia em resolver um trabalho prático, de modo a que os
- estudantes desta unidade lectiva aprendessem um pouco mais sobre aspectos
- importantes para o desenvolvimento profissional e vocacional, nomeadamente
- entropia, redundância e informação mútua.\paragraph{}
- Este trabalho tem como objectivo dar a conhecer aos estudantes um pouco
- mais sobre o mundo virtual e binarização dos seus ficheiros, especialmente de
- imagem, som e texto. Através de algumas amostras, podem assim, relacioná-las
- com os seus constituintes (0’s e 1’s), para ficarem com uma maior abordagem a
- este nível, que certamente se revelará útil em trabalhos futuros, que envolvam
- compressão e bases de dados.
- \newpage
- \section*{\centering Questões}
- \section{Exercicio 1}
- \paragraph{}
- Nesta primeira questão, era pedido que fosse desenvolvida uma função que, dada
- uma fonte de informação, fonte, e respectivo alfabeto, alfabeto, determinasse e
- conseguisse dar a visualizar o histograma de ocorrência dos seus símbolos.\\paragraph{}
- Desta forma, introduzimos na nossa função, histograma(), que recebe como
- argumentos a tal fonte de informação, fonte, e o alfabeto, alfabeto, e que devolve
- um vector, h, com as ocorrências dos símbolos para posterior visualização: \begin{itemize}
- \item \textbf{compAlfa}: representa o comprimento do alfabeto, calculado através da função length(), do Matlab.
- \item \textbf{h}:um array cheio de zeros, do tamanho do alfabeto, calculado através da função zeros(), do Matlab.
- \end{itemize}
- \paragraph{}
- Tendo estas duas variáveis criadas, foi introduzido, posteriormente, um ciclo
- que itera tantas vezes quanto o número de elementos do alfabeto (utilizando a
- variável compAlfa). A cada iteração, percorre-se a fonte e descobre-se quantas
- vezes, através de um array abstrato (usado internamente pela função find()), o
- símbolo em questão aparece na fonte em estudo. Calcula-se, posteriormente, o
- tamanho desse array, e adiciona-se à posição i do array h.
- \paragraph{}
- Após todas as iterações, obtemos o nosso array h, devidamente preenchido
- com o número de ocorrências de símbolos na fonte dada.
- \paragraph{}
- A visualização do histograma é feita através da função bar() do Matlab.
- \newpage
- \section{Exercicio 2}
- \paragraph{}Na segunda questão do enunciado, era pedido que fosse desenvolvida outra
- função que, dada uma fonte, fonte, e um alfabeto, alfabeto, determinasse o limite
- mínimo teórico para o número médio de bits por símbolo. Sabemos, pelo estudo
- da disciplina, que esse limite tem a designação de entropia, com uma fórmula
- comum a todos os tipos de fontes e alfabetos.
- \paragraph{}Para esta resolução, foi criada a função \textit{entropia()}, que recebe uma fonte e um
- alfabeto, e que devolve um array e, com o valor da entropia.
- \paragraph{}
- O primeiro passo foi separar a fonte em linhas e colunas, para casos como
- áudio, recorrendo à função \textit{size()} do Matlab, introduzindo assim o array \textbf{\textit{[larg,
- comp]}}, com os respectivos valores da largura e comprimento da fonte. De
- seguida, criou-se a variável tamanhoTotal, com o número total de elementos.
- \paragraph{}
- Utilizando a função anterior,\textit{histograma()}, conseguimos achar o array \textbf{h} que
- denota o número de ocorrências de símbolos. Tendo já todas as ocorrências, e
- sendo a entropia uma propriedade probabilística, procedemos à criação de um
- array probabilidade, que nos vai devolver a probabilidade de esse símbolo
- ocorrer na fonte. Tendo isto, removemos todos os símbolos nunca encontrados,
- ou seja, todos os valores em que a sua probabilidade seja zero, pois estes iriam
- quebrar a fórmula da entropia, que envolve logaritmos.\paragraph{}
- Para finalizar, calculou-se o array \textit{ent}, que armazena todos os valores
- calculados e posteriormente, calculou-se o somatório de todos os seus elementos,
- obtendo-se, assim, a entropia, representada por e, devolvida pela função.
- \end{document}
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement