Advertisement
Guest User

Untitled

a guest
Dec 6th, 2015
146
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
  1. \documentclass[12pt,a4paper,titlepage]{article}
  2. \setlength{\headheight}{15pt}
  3. \RequirePackage[T1]{fontenc}
  4. \RequirePackage[utf8]{inputenc}
  5. \usepackage{secdot}
  6. \usepackage{fancyhdr}
  7.  
  8. \pagestyle{fancy}
  9. \fancyhf{}
  10.  
  11. \rhead{2015/2016}
  12. \lhead{Teoria da Informação }
  13. \rfoot{Page \thepage}
  14. \begin{document}
  15.  
  16. \title{Relatório TP2\\Teoria da Informação}
  17. \author{Diogo Martins \and Francisco Alves\and Frederico Cardoso}
  18. \maketitle
  19.  
  20.  
  21. \section* {\centering Introdução}\paragraph{}
  22. Este trabalho foi realizado no âmbito da disciplina de segundo ano de Teoria DA
  23. Informação. Consistia em resolver um trabalho prático, de modo a que os
  24. estudantes desta unidade lectiva aprendessem um pouco mais sobre aspectos
  25. importantes para o desenvolvimento profissional e vocacional, nomeadamente
  26. entropia, redundância e informação mútua.\paragraph{}
  27. Este trabalho tem como objectivo dar a conhecer aos estudantes um pouco
  28. mais sobre o mundo virtual e binarização dos seus ficheiros, especialmente de
  29. imagem, som e texto. Através de algumas amostras, podem assim, relacioná-las
  30. com os seus constituintes (0’s e 1’s), para ficarem com uma maior abordagem a
  31. este nível, que certamente se revelará útil em trabalhos futuros, que envolvam
  32. compressão e bases de dados.
  33. \newpage
  34. \section*{\centering Questões}
  35.  
  36. \section{Exercicio 1}
  37. \paragraph{}
  38.  
  39. Nesta primeira questão, era pedido que fosse desenvolvida uma função que, dada
  40. uma fonte de informação, fonte, e respectivo alfabeto, alfabeto, determinasse e
  41. conseguisse dar a visualizar o histograma de ocorrência dos seus símbolos.\\paragraph{}
  42. Desta forma, introduzimos na nossa função, histograma(), que recebe como
  43. argumentos a tal fonte de informação, fonte, e o alfabeto, alfabeto, e que devolve
  44. um vector, h, com as ocorrências dos símbolos para posterior visualização: \begin{itemize}
  45.  
  46. \item \textbf{compAlfa}: representa o comprimento do alfabeto, calculado através da função length(), do Matlab.
  47. \item \textbf{h}:um array cheio de zeros, do tamanho do alfabeto, calculado através da função zeros(), do Matlab.
  48. \end{itemize}
  49. \paragraph{}
  50. Tendo estas duas variáveis criadas, foi introduzido, posteriormente, um ciclo
  51. que itera tantas vezes quanto o número de elementos do alfabeto (utilizando a
  52. variável compAlfa). A cada iteração, percorre-se a fonte e descobre-se quantas
  53. vezes, através de um array abstrato (usado internamente pela função find()), o
  54. símbolo em questão aparece na fonte em estudo. Calcula-se, posteriormente, o
  55. tamanho desse array, e adiciona-se à posição i do array h.
  56. \paragraph{}
  57. Após todas as iterações, obtemos o nosso array h, devidamente preenchido
  58. com o número de ocorrências de símbolos na fonte dada.
  59. \paragraph{}
  60. A visualização do histograma é feita através da função bar() do Matlab.
  61. \newpage
  62. \section{Exercicio 2}
  63. \paragraph{}Na segunda questão do enunciado, era pedido que fosse desenvolvida outra
  64. função que, dada uma fonte, fonte, e um alfabeto, alfabeto, determinasse o limite
  65. mínimo teórico para o número médio de bits por símbolo. Sabemos, pelo estudo
  66. da disciplina, que esse limite tem a designação de entropia, com uma fórmula
  67. comum a todos os tipos de fontes e alfabetos.
  68. \paragraph{}Para esta resolução, foi criada a função \textit{entropia()}, que recebe uma fonte e um
  69. alfabeto, e que devolve um array e, com o valor da entropia.
  70. \paragraph{}
  71. O primeiro passo foi separar a fonte em linhas e colunas, para casos como
  72. áudio, recorrendo à função \textit{size()} do Matlab, introduzindo assim o array \textbf{\textit{[larg,
  73. comp]}}, com os respectivos valores da largura e comprimento da fonte. De
  74. seguida, criou-se a variável tamanhoTotal, com o número total de elementos.
  75. \paragraph{}
  76. Utilizando a função anterior,\textit{histograma()}, conseguimos achar o array \textbf{h} que
  77. denota o número de ocorrências de símbolos. Tendo já todas as ocorrências, e
  78. sendo a entropia uma propriedade probabilística, procedemos à criação de um
  79. array probabilidade, que nos vai devolver a probabilidade de esse símbolo
  80. ocorrer na fonte. Tendo isto, removemos todos os símbolos nunca encontrados,
  81. ou seja, todos os valores em que a sua probabilidade seja zero, pois estes iriam
  82. quebrar a fórmula da entropia, que envolve logaritmos.\paragraph{}
  83. Para finalizar, calculou-se o array \textit{ent}, que armazena todos os valores
  84. calculados e posteriormente, calculou-se o somatório de todos os seus elementos,
  85. obtendo-se, assim, a entropia, representada por e, devolvida pela função.
  86. \end{document}
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement