-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathindex.xml
More file actions
88 lines (75 loc) · 5.5 KB
/
index.xml
File metadata and controls
88 lines (75 loc) · 5.5 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
<channel>
<title>Luoxu34's Blog</title>
<link>https://luoxu34.github.io/</link>
<description>Recent content on Luoxu34's Blog</description>
<generator>Hugo -- gohugo.io</generator>
<language>en-us</language>
<lastBuildDate>Fri, 22 Jun 2018 02:15:00 +0800</lastBuildDate>
<atom:link href="https://luoxu34.github.io/index.xml" rel="self" type="application/rss+xml" />
<item>
<title>Miniconda 使用介绍</title>
<link>https://luoxu34.github.io/2018/06/22/miniconda-%E4%BD%BF%E7%94%A8%E4%BB%8B%E7%BB%8D/</link>
<pubDate>Fri, 22 Jun 2018 02:15:00 +0800</pubDate>
<guid>https://luoxu34.github.io/2018/06/22/miniconda-%E4%BD%BF%E7%94%A8%E4%BB%8B%E7%BB%8D/</guid>
<description>介绍 Anaconda 是一个用于科学计算的 Python 发行版,支持 Linux, Mac, Windows, 包含了众多流行的科学计算、数据分析的 Python 包。
Miniconda 是一个 Anaconda 的轻量级替代,默认只包含了 python 和 conda,但是可以通过 pip 和 conda 来安装所需要的包。
可以借助 Miniconda 解决 python 发开中的包管理问题和环境管理问题(尤其是多版本Python并存问题),其他的方案有:
virtualenv/venv vagrant docker 下载 Anaconda 下载 https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/
Miniconda 下载 https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/
安装 $ bash Miniconda3-latest-Linux-x86_64.sh [/home/luoxu/miniconda3] &gt;&gt;&gt; PREFIX=/home/luoxu/miniconda3 installing: python-3.6.5-hc3d631a_2 ... Python 3.6.5 :: Anaconda, Inc. installing: ca-certificates-2018.03.07-0 ... installing: conda-env-2.6.0-h36134e3_1 ... ...... installing: conda-4.5.4-py36_0 ... installation finished. Do you wish the installer to prepend the Miniconda3 install location to PATH in your /home/luoxu/.</description>
</item>
<item>
<title>我的 PuTTY Tray 配置</title>
<link>https://luoxu34.github.io/2018/06/16/%E6%88%91%E7%9A%84-putty-tray-%E9%85%8D%E7%BD%AE/</link>
<pubDate>Sat, 16 Jun 2018 21:02:48 +0800</pubDate>
<guid>https://luoxu34.github.io/2018/06/16/%E6%88%91%E7%9A%84-putty-tray-%E9%85%8D%E7%BD%AE/</guid>
<description> 写作由来:自己常用 PuTTYTray 连接服务器,但是之前一直没有记录,一旦切换环境后总是不记得之前的配置是什么。好记性不如烂笔头,所以这里记录一下自己的常用配置,以免忘记。
PuTTYTray官网:https://puttytray.goeswhere.com/
在GitHub上的下载地址:https://github.com/FauxFaux/PuTTYTray/releases
Notes session保存到文件
禁止bell
设置窗口大小和行记录
设置字体类型和大小
开启全屏快捷键
Ctrl+Etner才打开超链接
保持长连接
设置登陆用户名
启动压缩
使用SSH认证登陆
配色 Color Scheme
我使用的是 solarized dark,需要手动替换session文件中的内容。
Solarized Dark solarized_dark_puttytray.txt
Colour21\253,246,227\ Colour20\238,232,213\ Colour19\147,161,161\ Colour18\42,161,152\ Colour17\108,113,196\ Colour16\211,54,130\ Colour15\131,148,150\ Colour14\38,139,210\ Colour13\101,123,131\ Colour12\181,137,0\ Colour11\88,110,117\ Colour10\133,153,0\ Colour9\203,75,22\ Colour8\220,50,47\ Colour7\0,43,56\ Colour6\7,54,66\ Colour5\238,232,213\ Colour4\0,43,54\ Colour3\7,54,66\ Colour2\0,43,54\ Colour1\147,161,161\ Colour0\131,148,150\ </description>
</item>
<item>
<title>Spark 快速入门 - Python 语言</title>
<link>https://luoxu34.github.io/2018/06/09/spark-%E5%BF%AB%E9%80%9F%E5%85%A5%E9%97%A8---python-%E8%AF%AD%E8%A8%80/</link>
<pubDate>Sat, 09 Jun 2018 02:50:00 +0800</pubDate>
<guid>https://luoxu34.github.io/2018/06/09/spark-%E5%BF%AB%E9%80%9F%E5%85%A5%E9%97%A8---python-%E8%AF%AD%E8%A8%80/</guid>
<description>原文: http://spark.apache.org/docs/latest/quick-start.html
译文: https://luoxu34.github.io/2018/06/09/spark-快速入门---python-语言/
译者: luoxu34
时间: 2018/06/09
环境:
Name Version OS Ubuntu 18.04 LTS JDK 8u172 Python 3.6.5 PySpark 2.3.0 需要了解的是,Spark 2.0 之前的版本,主要的编程接口是弹性分布式数据集(Resilient Distributed Dataset, 简称RDD)。在 Spark 2.0 之后的版本虽然依旧支持 RDD,但是 RDD 已经被数据集 Dataset 所取代,后者不但是强类型的,而且与 RDD 相比具有更多的改进和优化,因此强烈建议使用 Dataset 而不是 RDD。
1. 使用Spark Shell进行交互式分析 1.1 基础 Basics Spark shell提供了一种学习API的简单方法,它同时也是交互式分析数据的强大工具。 第一步,需要进入 Spark 的交互模式:</description>
</item>
<item>
<title>Hello, I'm coming</title>
<link>https://luoxu34.github.io/2018/06/06/hello-im-coming/</link>
<pubDate>Wed, 06 Jun 2018 06:06:06 +0800</pubDate>
<guid>https://luoxu34.github.io/2018/06/06/hello-im-coming/</guid>
<description>&gt;&gt;&gt; print('Hello world!') Hello world! </description>
</item>
<item>
<title>About</title>
<link>https://luoxu34.github.io/about/</link>
<pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
<guid>https://luoxu34.github.io/about/</guid>
<description>Welcome everyone!
I&rsquo;m luoxu34, a python developer from China.</description>
</item>
</channel>
</rss>