Advertisement
Guest User

Untitled

a guest
May 23rd, 2018
68
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 25.06 KB | None | 0 0
  1. modified Dis/paper/pathFind.org
  2. @@ -45,7 +45,7 @@
  3. - модуль интеллектуального управления роботом.
  4.  
  5. В данной статье приводится рассматривается процедура генерации планов местности,
  6. -приводится методика обучения робота для достижения заданной точки на заданном
  7. +приводится методика управления роботом для достижения заданной точки на заданном
  8. классе местностей.
  9.  
  10. * Постановка задачи
  11. @@ -61,12 +61,12 @@
  12. Робот имеет априорную информацию о местности, по которой ему предстоит
  13. перемещаться. Эта информация представляет собой план местности до изменений.
  14.  
  15. -Априорная информация может использоваться роботом для обучения.
  16. +Априорная информация может использоваться при управлении роботом.
  17.  
  18. В момент запуска робот получает информацию о координатах точки старта и финиша.
  19.  
  20. -Робот получает информацию от датчиков. Установленные датчики позволяют получить
  21. -информацию о местности, а именно расстояние от робота до объектов вокруг.
  22. +Робот получает информацию от датчиков. Установленные датчики позволяет получить
  23. +данные о проходимости области вокруг робота.
  24.  
  25. Наиболее распространенным видом датчиков является лидар [1].
  26.  
  27. @@ -88,7 +88,7 @@ N, где N определяется дальностью датчиков.
  28.  
  29. * Генератор местностей
  30.  
  31. -Для обучения робота необходимо подготовить планы местностей.
  32. +Необходимо подготовить планы местностей.
  33.  
  34. Определим класс генерируемых местностей -- внутренние помещения.
  35.  
  36. @@ -105,10 +105,10 @@ N, где N определяется дальностью датчиков.
  37.  
  38. - отношение длины комнаты к ее ширине, задается целым числом процентов (S).
  39.  
  40. -Для создания различных вариантов одного помещения, необходимых для обучения
  41. -робота, предлагается добавить препятствия и проходы с определенной
  42. -интенсивностью. Для этого предлагается добавить к исходному плану помещения
  43. -аддитивный гауссовский белый шум с заданной интенсивностью [3].
  44. +Для создания различных вариантов одного помещения предлагается добавить
  45. +препятствия и проходы с определенной интенсивностью. Для этого предлагается
  46. +добавить к исходному плану помещения аддитивный гауссовский белый шум с заданной
  47. +интенсивностью [3].
  48.  
  49. Определим также виды помещений.
  50.  
  51. @@ -175,26 +175,55 @@ N, где N определяется дальностью датчиков.
  52.  
  53. * Построение маршрута в условиях локальной видимости
  54.  
  55. -Для обучения робота предлагается использование искусственных нейронных сетей [4].
  56. +Для управления роботом предлагается использование искусственных нейронных сетей [4].
  57.  
  58. -Обучение робота производится в разработанной моделирующей среде.
  59. +Управление роботом и оценка качества алгоритма производится в разработанной
  60. +моделирующей среде.
  61.  
  62. -Для обучения робота с матрицей видимости $N x N$ в двумерном варианте
  63. +Моделирующая среда предназначена для уменьшения стоимости испытаний над роботом.
  64. +
  65. +Моделирующая среда представляет собой программу, которая отображает карту, точку
  66. +начала, точку конца движения робота, а также самого робота.
  67. +
  68. +Моделирующая среда посредством модуля взаимодействия робота и моделирующей среды
  69. +передает модулю интеллектуального управления роботом текущее значение матрицы
  70. +области видимости робота.
  71. +
  72. +Моделирующая среда посредством модуля взаимодействия робота и моделирующей среды
  73. +получает от модуля интеллектуального управления роботом управляющий сигнал.
  74. +
  75. +В зависимости от полученного управляющего сигнала, моделирующая среда изменяет
  76. +положение робота на карте и отображает изменения на экране.
  77. +
  78. +В случае получения некорректного управляющего сигнала моделирующая среда
  79. +сообщает пользователю об ошибке и прекращает работу.
  80. +
  81. +Модуль интеллектуального управления роботом представляет собой программу,
  82. +реализующую модель нейронной сети.
  83. +
  84. +Программа работает в двух режимах: режим обучения и режим реализации.
  85. +
  86. +В режиме обучения программа принимает на вход подготовленные схемы помещения.
  87. +
  88. +В режиме реализации программа получает на вход сигналы от модуля взаимодействия
  89. +робота и моделирующей среды и отвечает на них управляющим сигналом.
  90. +
  91. +Для управления роботом с матрицей видимости $N x N$ в двумерном варианте
  92. используется полносвязный перцептрон с $(N*N+2)$ входами и двумя выходами.
  93. Первые $N*N$ входов принимают на вход текущую матрицу видимости, два других --
  94. координаты текущего положения робота. Выходы перцептрона отвечают за направление
  95. движения по координатам.
  96.  
  97. -Предложенный алгоритм может быть использован для обучения робота на пространстве
  98. -любой размерности.
  99. +Предложенный алгоритм может быть использован для управления роботом на
  100. +пространстве любой размерности.
  101.  
  102. -Алгоритм обучения робота с использованием полносвязного перцептрона на
  103. +Алгоритм обучения полносвязного перцептрона для управления роботом на
  104. помещениях с заданными параметрами:
  105.  
  106. 1. Сгенерировать помещение с заданными параметрами.
  107.  
  108. 2. Сформировать множество вариаций сгенерированного помещения с
  109. -помощью генератора шума.
  110. + помощью генератора шума.
  111.  
  112. 3. Выбрать точки старта и финиша.
  113.  
  114. @@ -211,11 +240,11 @@ N, где N определяется дальностью датчиков.
  115. 6.2. Получить оптимальный маршрут для текущего положения робота.
  116.  
  117. 6.3. Предъявить нейронной сети для в качестве параметров матрицу видимости,
  118. - координаты робота, в качестве целевой функции предъявляется оптимальное
  119. - перемещение из заданной точки.
  120. + координаты робота, в качестве целевой функции предъявляется оптимальное
  121. + перемещение из заданной точки.
  122.  
  123. 6.4. Робот перемещается в положение, которое является оптимальным
  124. - перемещением из текущей точки.
  125. + перемещением из текущей точки.
  126.  
  127. После обучения на планах помещения одного типа робот может находить оптимальный
  128. маршрут на других помещениях заданного типа.
  129. @@ -233,8 +262,8 @@ N, где N определяется дальностью датчиков.
  130.  
  131. Приведена классификация помещений.
  132.  
  133. -Разработана методика обучения робота для достижения заданной точки на местности
  134. -в условиях ограниченной видимости с помощью нейронной сети.
  135. +Разработана методика обучения полносвязного перцептрона для управления роботом
  136. +для достижения заданной точки на местности в условиях ограниченной видимости.
  137.  
  138. * Список используемых источников
  139. :PROPERTIES:
  140. modified Dis/paper/pathFind.pdf
  141. modified Dis/paper/pathFind.tex
  142. @@ -1,4 +1,4 @@
  143. -% Created 2018-05-22 Вт 19:19
  144. +% Created 2018-05-23 Ср 09:59
  145. % Intended LaTeX compiler: pdflatex
  146. \documentclass[11pt]{article}
  147. \usepackage[utf8]{inputenc}
  148. @@ -25,7 +25,7 @@
  149. pdftitle={Программный комплекс для моделирования, отладки и оценки алгоритмов построения пути в условиях локальной видимости с использованием априорных данных},
  150. pdfkeywords={},
  151. pdfsubject={},
  152. - pdfcreator={Emacs 27.0.50 (Org mode 9.1.12)},
  153. + pdfcreator={Emacs 27.0.50 (Org mode 9.1.13)},
  154. pdflang={Russian}}
  155. \begin{document}
  156.  
  157. @@ -33,7 +33,7 @@
  158.  
  159.  
  160. \section*{Введение}
  161. -\label{sec:org600660a}
  162. +\label{sec:org32750b0}
  163. В настоящее время одной из самых бурно развивающихся областей науки и техники
  164. является робототехника. В случае катастрофы робот может помочь деятельности
  165. спасателей.
  166. @@ -63,39 +63,39 @@
  167. \end{itemize}
  168.  
  169. В данной статье приводится рассматривается процедура генерации планов местности,
  170. -приводится методика обучения робота для достижения заданной точки на заданном
  171. +приводится методика управления роботом для достижения заданной точки на заданном
  172. классе местностей.
  173.  
  174. \section{Постановка задачи}
  175. -\label{sec:orgb05e450}
  176. +\label{sec:orgeb15cda}
  177.  
  178. Решается задача перемещения робота из начальной точки в некоторую фиксированную
  179. -точку на местности, которая была искажена в результате катастрофы (рисунок \ref{fig:org6e4cf9c}).
  180. +точку на местности, которая была искажена в результате катастрофы (рисунок \ref{fig:org163843d}).
  181.  
  182.  
  183. \begin{figure}[htbp]
  184. \centering
  185. \includegraphics[width=.9\linewidth]{./post1.jpeg}
  186. -\caption{\label{fig:org6e4cf9c}
  187. +\caption{\label{fig:org163843d}
  188. Постановка задачи}
  189. \end{figure}
  190.  
  191. Робот имеет априорную информацию о местности, по которой ему предстоит
  192. перемещаться. Эта информация представляет собой план местности до изменений.
  193.  
  194. -Априорная информация может использоваться роботом для обучения.
  195. +Априорная информация может использоваться при управлении роботом.
  196.  
  197. В момент запуска робот получает информацию о координатах точки старта и финиша.
  198.  
  199. -Робот получает информацию от датчиков. Установленные датчики позволяют получить
  200. -информацию о местности, а именно расстояние от робота до объектов вокруг.
  201. +Робот получает информацию от датчиков. Установленные датчики позволяет получить
  202. +данные о проходимости области вокруг робота.
  203.  
  204. Наиболее распространенным видом датчиков является лидар [1].
  205.  
  206. Информацию о местности вокруг робота можно закодировать в виде матрицы порядка
  207. N, где N определяется дальностью датчиков.
  208.  
  209. -На рисунке \ref{fig:orgce3a3fa} приведен пример матрицы области видимости робота.
  210. +На рисунке \ref{fig:orgb1dfe1c} приведен пример матрицы области видимости робота.
  211.  
  212. В середине матрицы находится сам робот. Здесь он отмечен символом \texttt{X}.
  213. Свободные для перемещения клетки отмечены символом \texttt{0}, занятые -- \texttt{1}.
  214. @@ -106,15 +106,15 @@ N, где N определяется дальностью датчиков.
  215. \begin{figure}[htbp]
  216. \centering
  217. \includegraphics[width=.9\linewidth]{./post2.png}
  218. -\caption{\label{fig:orgce3a3fa}
  219. +\caption{\label{fig:orgb1dfe1c}
  220. Пример матрицы области видимости робота}
  221. \end{figure}
  222.  
  223.  
  224. \section{Генератор местностей}
  225. -\label{sec:orgaff5ce4}
  226. +\label{sec:org69f0ecf}
  227.  
  228. -Для обучения робота необходимо подготовить планы местностей.
  229. +Необходимо подготовить планы местностей.
  230.  
  231. Определим класс генерируемых местностей -- внутренние помещения.
  232.  
  233. @@ -133,10 +133,10 @@ N, где N определяется дальностью датчиков.
  234. \item отношение длины комнаты к ее ширине, задается целым числом процентов (S).
  235. \end{itemize}
  236.  
  237. -Для создания различных вариантов одного помещения, необходимых для обучения
  238. -робота, предлагается добавить препятствия и проходы с определенной
  239. -интенсивностью. Для этого предлагается добавить к исходному плану помещения
  240. -аддитивный гауссовский белый шум с заданной интенсивностью [3].
  241. +Для создания различных вариантов одного помещения предлагается добавить
  242. +препятствия и проходы с определенной интенсивностью. Для этого предлагается
  243. +добавить к исходному плану помещения аддитивный гауссовский белый шум с заданной
  244. +интенсивностью [3].
  245.  
  246. Определим также виды помещений.
  247.  
  248. @@ -212,32 +212,59 @@ N, где N определяется дальностью датчиков.
  249. \end{itemize}
  250.  
  251. \section{Построение маршрута в условиях локальной видимости}
  252. -\label{sec:orga1dcf26}
  253. +\label{sec:org564a475}
  254.  
  255. -Для обучения робота предлагается использование искусственных нейронных сетей [4].
  256. +Для управления роботом предлагается использование искусственных нейронных сетей [4].
  257.  
  258. -Обучение робота производится в разработанной моделирующей среде.
  259. +Управление роботом и оценка качества алгоритма производится в разработанной
  260. +моделирующей среде.
  261.  
  262. -Для обучения робота с матрицей видимости \(N x N\) в двумерном варианте
  263. +Моделирующая среда предназначена для уменьшения стоимости испытаний над роботом.
  264. +
  265. +Моделирующая среда представляет собой программу, которая отображает карту, точку
  266. +начала, точку конца движения робота, а также самого робота.
  267. +
  268. +Моделирующая среда посредством модуля взаимодействия робота и моделирующей среды
  269. +передает модулю интеллектуального управления роботом текущее значение матрицы
  270. +области видимости робота.
  271. +
  272. +Моделирующая среда посредством модуля взаимодействия робота и моделирующей среды
  273. +получает от модуля интеллектуального управления роботом управляющий сигнал.
  274. +
  275. +В зависимости от полученного управляющего сигнала, моделирующая среда изменяет
  276. +положение робота на карте и отображает изменения на экране.
  277. +
  278. +В случае получения некорректного управляющего сигнала моделирующая среда
  279. +сообщает пользователю об ошибке и прекращает работу.
  280. +
  281. +Модуль интеллектуального управления роботом представляет собой программу,
  282. +реализующую модель нейронной сети.
  283. +
  284. +Программа работает в двух режимах: режим обучения и режим реализации.
  285. +
  286. +В режиме обучения программа принимает на вход подготовленные схемы помещения.
  287. +
  288. +В режиме реализации программа получает на вход сигналы от модуля взаимодействия
  289. +робота и моделирующей среды и отвечает на них управляющим сигналом.
  290. +
  291. +Для управления роботом с матрицей видимости \(N x N\) в двумерном варианте
  292. используется полносвязный перцептрон с \((N*N+2)\) входами и двумя выходами.
  293. Первые \(N*N\) входов принимают на вход текущую матрицу видимости, два других --
  294. координаты текущего положения робота. Выходы перцептрона отвечают за направление
  295. движения по координатам.
  296.  
  297. -Предложенный алгоритм может быть использован для обучения робота на пространстве
  298. -любой размерности.
  299. +Предложенный алгоритм может быть использован для управления роботом на
  300. +пространстве любой размерности.
  301.  
  302. -Алгоритм обучения робота с использованием полносвязного перцептрона на
  303. +Алгоритм обучения полносвязного перцептрона для управления роботом на
  304. помещениях с заданными параметрами:
  305.  
  306. \begin{enumerate}
  307. \item Сгенерировать помещение с заданными параметрами.
  308.  
  309. \item Сформировать множество вариаций сгенерированного помещения с
  310. -\end{enumerate}
  311. -помощью генератора шума.
  312. +помощью генератора шума.
  313.  
  314. -\begin{enumerate}
  315. \item Выбрать точки старта и финиша.
  316.  
  317. \item Найти оптимальный путь из точки старта в точку финиша. Для каждой точки
  318. @@ -253,18 +280,18 @@ N, где N определяется дальностью датчиков.
  319. 6.2. Получить оптимальный маршрут для текущего положения робота.
  320.  
  321. 6.3. Предъявить нейронной сети для в качестве параметров матрицу видимости,
  322. -координаты робота, в качестве целевой функции предъявляется оптимальное
  323. -перемещение из заданной точки.
  324. + координаты робота, в качестве целевой функции предъявляется оптимальное
  325. + перемещение из заданной точки.
  326.  
  327. 6.4. Робот перемещается в положение, которое является оптимальным
  328. -перемещением из текущей точки.
  329. + перемещением из текущей точки.
  330. \end{enumerate}
  331.  
  332. После обучения на планах помещения одного типа робот может находить оптимальный
  333. маршрут на других помещениях заданного типа.
  334.  
  335. \section*{Выводы}
  336. -\label{sec:org8f42f53}
  337. +\label{sec:org82fc30a}
  338. В статье были сформулирована задача достижения заданной точки на местности с
  339. препятствиями в условиях ограниченной видимости.
  340.  
  341. @@ -272,11 +299,11 @@ N, где N определяется дальностью датчиков.
  342.  
  343. Приведена классификация помещений.
  344.  
  345. -Разработана методика обучения робота для достижения заданной точки на местности
  346. -в условиях ограниченной видимости с помощью нейронной сети.
  347. +Разработана методика обучения полносвязного перцептрона для управления роботом
  348. +для достижения заданной точки на местности в условиях ограниченной видимости.
  349.  
  350. \section*{Список используемых источников}
  351. -\label{sec:orgedf1871}
  352. +\label{sec:org463dab4}
  353. \begin{enumerate}
  354. \item Deitz, Paul H., Atmospheric Effects on the Beam Propagation of the XM-23 Laser
  355. Rangefinder, Laser Range Instrumentation, SPIE Proceedings Vol. 11. Bellingham,
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement