am_dot_com

IA 2022-11-21

Nov 21st, 2022
51
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 3.79 KB | None | 0 0
  1. Bom dia!
  2.  
  3. IA 2022-11-21
  4.  
  5. Machine-Learning - Aprendizagem Máquina
  6.  
  7. ML
  8. ML = {
  9. supervised learning,
  10. unsupervised learning
  11. }
  12.  
  13. n-classificações
  14. n-target classification problem
  15. 3-target classification problem
  16.  
  17. versicolor, virginica, setosa
  18. Ronald Fisher
  19. "iris"
  20. comprimento + largura das pétalas
  21. comprimento + largura das sépalas
  22.  
  23.  
  24. (cp, lp, cs, ls)
  25. Shape do dataset
  26.  
  27. (cp, lp, cs, ls) => virginica
  28. (cp, lp, cs, ls) => setosa
  29. (cp, lp, cs, ls) => setosa
  30. (cp, lp, cs, ls) => versicolor
  31.  
  32. Kaggle.com
  33.  
  34. dataset - conjunto de dados
  35. dataset = conjunto de amostras
  36. conjunto de exemplos que pretendem servir para que o agente possa aprender a partir dos exemplo
  37.  
  38. Aprendizagem supervisionada
  39. Dataset = conjunto de amostras/exemplos
  40. Supervised learning?
  41. Para cada exemplo, está disponível uma associação. Uma classificação certa para cada amostra. 1+ valor correto está disponível para cada amostra.
  42.  
  43. uma target é uma classificação possível, dentro de um conjunto discreto e finito de classificações possíveis
  44.  
  45. UNSupervised learning?
  46. amostras não são acompanhadas de uma classificação curada
  47. tem que haver descoberta de como é que se podem organizar as amostras
  48.  
  49. classificadores = algoritmos para classificação
  50.  
  51. KNN = K-Nearest Neighbours
  52. Uma amostra nunca antes vista receberá como classificação C, pelo algoritmo KNN, a classificação MAIORITÁRIA dos K exemplos que lhe sejam considerados mais próximos, pela métrica de distância que estiver em uso; por exemplo (e comummente) a distância de Minkowski.
  53. K=1 é o KNN na sua complexidade máxima
  54. K=x , com x>1 é sempre de complexidade inferior a K=1.
  55.  
  56. Fizemos um exercício: imaginamos uma pessoa nova a entrar na sala, e fomos capazes de classíficá-la, por KNN, por exemplo com K=1, indo à procura da pessoa-em-dataset mais próxima, vimos a sua classificação C, e usamos C para a pessoa nova.
  57. Quanto podemos confiar no classificador?
  58. Chama-se a isto "o problema de aferição de qualidade do modelo".
  59.  
  60. "Modelo" é uma função
  61. é uma entidade que perante inputs, produz output
  62.  
  63. input:amostra nova => modelo:classificador que aprendeu a partir de exemplos => output: uma classificação para a amostra nova
  64.  
  65. Técnica para aferir a qualidade de modelos
  66.  
  67. NÃO devemos utilizar todo o dataset para ensinar a máquina.
  68. Só devemos usar parte do dataset.
  69. Por exemplo 80% do dataset.
  70. A outra parte que não for usada para ensinar a máquina, ficará propositadamente reservada, para aferição da qualidade da aprendizagem.
  71. Por exemplo, 20% das amostras poderão ser reservadas. Ou seja o classificador nunca as verá.
  72. Porquê? Para quê?
  73. Quando o processo de aprendizagem terminar == quando o modelo estiver disponível, pronto a usar
  74. Podemos usar como inputs do modelo, as amostras reservadas
  75. O modelo vai produzir classificações para essas amostras.
  76. Embora o modelo nunca tenha visto as amostras, nós sabemos a sua classificação perfeita, porque faz parte do dataset supervisionado.
  77. Assim, podemos comparar a classificação feita pelo modelo, com a classificação que sabemos perfeita.
  78.  
  79. exemplo: imaginem-se 10 amostras reservadas
  80.  
  81. acertos = 0
  82. for amostra in amostrasReservadas:
  83. respostaDoModelo = modeloClassificacao(amostra)
  84.  
  85. classificacaoPerfeita = dataset(amostra)
  86.  
  87. if(respostaDoModelo==classificacaoPerfeita): acerto+=1
  88.  
  89. # for
  90.  
  91. precisao = acertos/len(amostrasReservadas)
  92.  
  93. Overfitting é o que ocorre quando um modelo é formidável a classificar exemplos do dataset (dá as classificações corretas, portanto coincidentes com a classificação que o dataset fornece), MAS não se comporta adequadamente com amostras novas.
  94.  
  95.  
  96. Underfitting é o que ocorre quando o classificador não captura todos os exemplos (produz classificações erradas para amostras do dataset com que foi ensinado)
  97.  
Advertisement
Add Comment
Please, Sign In to add comment