Guest User

Untitled

a guest
Jul 19th, 2018
104
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 7.34 KB | None | 0 0
  1. {
  2. "tokens": [
  3. {
  4. "text": "from",
  5. "token": "Keyword.Namespace"
  6. },
  7. {
  8. "text": " ",
  9. "token": "Text"
  10. },
  11. {
  12. "text": "pygments.lexers",
  13. "token": "Name.Namespace"
  14. },
  15. {
  16. "text": " ",
  17. "token": "Text"
  18. },
  19. {
  20. "text": "import",
  21. "token": "Keyword.Namespace"
  22. },
  23. {
  24. "text": " ",
  25. "token": "Text"
  26. },
  27. {
  28. "text": "PythonLexer",
  29. "token": "Name"
  30. },
  31. {
  32. "text": "\n",
  33. "token": "Text"
  34. },
  35. {
  36. "text": "from",
  37. "token": "Keyword.Namespace"
  38. },
  39. {
  40. "text": " ",
  41. "token": "Text"
  42. },
  43. {
  44. "text": "pygments",
  45. "token": "Name.Namespace"
  46. },
  47. {
  48. "text": " ",
  49. "token": "Text"
  50. },
  51. {
  52. "text": "import",
  53. "token": "Keyword.Namespace"
  54. },
  55. {
  56. "text": " ",
  57. "token": "Text"
  58. },
  59. {
  60. "text": "lex",
  61. "token": "Name"
  62. },
  63. {
  64. "text": "\n",
  65. "token": "Text"
  66. },
  67. {
  68. "text": "import",
  69. "token": "Keyword.Namespace"
  70. },
  71. {
  72. "text": " ",
  73. "token": "Text"
  74. },
  75. {
  76. "text": "json",
  77. "token": "Name.Namespace"
  78. },
  79. {
  80. "text": "",
  81. "token": "Text"
  82. },
  83. {
  84. "text": "\n",
  85. "token": "Text"
  86. },
  87. {
  88. "text": "code",
  89. "token": "Name"
  90. },
  91. {
  92. "text": " ",
  93. "token": "Text"
  94. },
  95. {
  96. "text": "=",
  97. "token": "Operator"
  98. },
  99. {
  100. "text": " ",
  101. "token": "Text"
  102. },
  103. {
  104. "text": "open",
  105. "token": "Name.Builtin"
  106. },
  107. {
  108. "text": "(",
  109. "token": "Punctuation"
  110. },
  111. {
  112. "text": "__file__",
  113. "token": "Name"
  114. },
  115. {
  116. "text": ")",
  117. "token": "Punctuation"
  118. },
  119. {
  120. "text": ".",
  121. "token": "Operator"
  122. },
  123. {
  124. "text": "read",
  125. "token": "Name"
  126. },
  127. {
  128. "text": "(",
  129. "token": "Punctuation"
  130. },
  131. {
  132. "text": ")",
  133. "token": "Punctuation"
  134. },
  135. {
  136. "text": "\n",
  137. "token": "Text"
  138. },
  139. {
  140. "text": "tokens",
  141. "token": "Name"
  142. },
  143. {
  144. "text": " ",
  145. "token": "Text"
  146. },
  147. {
  148. "text": "=",
  149. "token": "Operator"
  150. },
  151. {
  152. "text": " ",
  153. "token": "Text"
  154. },
  155. {
  156. "text": "lex",
  157. "token": "Name"
  158. },
  159. {
  160. "text": "(",
  161. "token": "Punctuation"
  162. },
  163. {
  164. "text": "code",
  165. "token": "Name"
  166. },
  167. {
  168. "text": ",",
  169. "token": "Punctuation"
  170. },
  171. {
  172. "text": " ",
  173. "token": "Text"
  174. },
  175. {
  176. "text": "PythonLexer",
  177. "token": "Name"
  178. },
  179. {
  180. "text": "(",
  181. "token": "Punctuation"
  182. },
  183. {
  184. "text": ")",
  185. "token": "Punctuation"
  186. },
  187. {
  188. "text": ")",
  189. "token": "Punctuation"
  190. },
  191. {
  192. "text": "\n",
  193. "token": "Text"
  194. },
  195. {
  196. "text": "def",
  197. "token": "Keyword"
  198. },
  199. {
  200. "text": " ",
  201. "token": "Text"
  202. },
  203. {
  204. "text": "filter_token",
  205. "token": "Name.Function"
  206. },
  207. {
  208. "text": "(",
  209. "token": "Punctuation"
  210. },
  211. {
  212. "text": "token",
  213. "token": "Name"
  214. },
  215. {
  216. "text": ",",
  217. "token": "Punctuation"
  218. },
  219. {
  220. "text": " ",
  221. "token": "Text"
  222. },
  223. {
  224. "text": "text",
  225. "token": "Name"
  226. },
  227. {
  228. "text": ")",
  229. "token": "Punctuation"
  230. },
  231. {
  232. "text": ":",
  233. "token": "Punctuation"
  234. },
  235. {
  236. "text": "\n",
  237. "token": "Text"
  238. },
  239. {
  240. "text": " ",
  241. "token": "Text"
  242. },
  243. {
  244. "text": "return",
  245. "token": "Keyword"
  246. },
  247. {
  248. "text": " ",
  249. "token": "Text"
  250. },
  251. {
  252. "text": "{",
  253. "token": "Punctuation"
  254. },
  255. {
  256. "text": "\"",
  257. "token": "Literal.String"
  258. },
  259. {
  260. "text": "token",
  261. "token": "Literal.String"
  262. },
  263. {
  264. "text": "\"",
  265. "token": "Literal.String"
  266. },
  267. {
  268. "text": ":",
  269. "token": "Punctuation"
  270. },
  271. {
  272. "text": " ",
  273. "token": "Text"
  274. },
  275. {
  276. "text": "str",
  277. "token": "Name.Builtin"
  278. },
  279. {
  280. "text": "(",
  281. "token": "Punctuation"
  282. },
  283. {
  284. "text": "token",
  285. "token": "Name"
  286. },
  287. {
  288. "text": ")",
  289. "token": "Punctuation"
  290. },
  291. {
  292. "text": "[",
  293. "token": "Punctuation"
  294. },
  295. {
  296. "text": "6",
  297. "token": "Literal.Number.Integer"
  298. },
  299. {
  300. "text": ":",
  301. "token": "Punctuation"
  302. },
  303. {
  304. "text": "]",
  305. "token": "Punctuation"
  306. },
  307. {
  308. "text": ",",
  309. "token": "Punctuation"
  310. },
  311. {
  312. "text": " ",
  313. "token": "Text"
  314. },
  315. {
  316. "text": "\"",
  317. "token": "Literal.String"
  318. },
  319. {
  320. "text": "text",
  321. "token": "Literal.String"
  322. },
  323. {
  324. "text": "\"",
  325. "token": "Literal.String"
  326. },
  327. {
  328. "text": ":",
  329. "token": "Punctuation"
  330. },
  331. {
  332. "text": " ",
  333. "token": "Text"
  334. },
  335. {
  336. "text": "text",
  337. "token": "Name"
  338. },
  339. {
  340. "text": "}",
  341. "token": "Punctuation"
  342. },
  343. {
  344. "text": "\n",
  345. "token": "Text"
  346. },
  347. {
  348. "text": "print",
  349. "token": "Keyword"
  350. },
  351. {
  352. "text": " ",
  353. "token": "Text"
  354. },
  355. {
  356. "text": "json",
  357. "token": "Name"
  358. },
  359. {
  360. "text": ".",
  361. "token": "Operator"
  362. },
  363. {
  364. "text": "dumps",
  365. "token": "Name"
  366. },
  367. {
  368. "text": "(",
  369. "token": "Punctuation"
  370. },
  371. {
  372. "text": "{",
  373. "token": "Punctuation"
  374. },
  375. {
  376. "text": "\"",
  377. "token": "Literal.String"
  378. },
  379. {
  380. "text": "tokens",
  381. "token": "Literal.String"
  382. },
  383. {
  384. "text": "\"",
  385. "token": "Literal.String"
  386. },
  387. {
  388. "text": ":",
  389. "token": "Punctuation"
  390. },
  391. {
  392. "text": " ",
  393. "token": "Text"
  394. },
  395. {
  396. "text": "[",
  397. "token": "Punctuation"
  398. },
  399. {
  400. "text": "filter_token",
  401. "token": "Name"
  402. },
  403. {
  404. "text": "(",
  405. "token": "Punctuation"
  406. },
  407. {
  408. "text": "*",
  409. "token": "Operator"
  410. },
  411. {
  412. "text": "token",
  413. "token": "Name"
  414. },
  415. {
  416. "text": ")",
  417. "token": "Punctuation"
  418. },
  419. {
  420. "text": " ",
  421. "token": "Text"
  422. },
  423. {
  424. "text": "for",
  425. "token": "Keyword"
  426. },
  427. {
  428. "text": " ",
  429. "token": "Text"
  430. },
  431. {
  432. "text": "token",
  433. "token": "Name"
  434. },
  435. {
  436. "text": " ",
  437. "token": "Text"
  438. },
  439. {
  440. "text": "in",
  441. "token": "Operator.Word"
  442. },
  443. {
  444. "text": " ",
  445. "token": "Text"
  446. },
  447. {
  448. "text": "tokens",
  449. "token": "Name"
  450. },
  451. {
  452. "text": "]",
  453. "token": "Punctuation"
  454. },
  455. {
  456. "text": "}",
  457. "token": "Punctuation"
  458. },
  459. {
  460. "text": ",",
  461. "token": "Punctuation"
  462. },
  463. {
  464. "text": " ",
  465. "token": "Text"
  466. },
  467. {
  468. "text": "indent",
  469. "token": "Name"
  470. },
  471. {
  472. "text": "=",
  473. "token": "Operator"
  474. },
  475. {
  476. "text": "2",
  477. "token": "Literal.Number.Integer"
  478. },
  479. {
  480. "text": ")",
  481. "token": "Punctuation"
  482. },
  483. {
  484. "text": "\n",
  485. "token": "Text"
  486. }
  487. ]
  488. }
Add Comment
Please, Sign In to add comment