
在過去,神諭和魔法師被認為擁有發現奧秘的力量,國王和統治者們會借助他們預測未來,或者至少是聽取一些建議。如今我們生活在一個痴迷於將一切事情量化的社會裡,這份工作就交給資料科學家了。
資料科學家通過使用統計模型、數值分析,以及統計學之外的高級演算法,結合資料庫里已經存在的資料,去發掘、推斷和預測尚不存在的資料(有時是關於未來的資料)。這就是為什麼我們要做這麼多的預測分析和規劃分析。
下麵是一些可以借助資料科學家回答的問題:
請註意,這些問題的答案是在任何資料庫里都查詢不到的,因為它們尚不存在,需要被計算出來才行。這就是我們資料科學家從事的工作。
在這篇文章中你會學習如何將 Fedora 系統打造成資料科學家的開發環境和生產系統。其中大多數基本軟體都有 RPM 軟體包,但是最先進的組件目前只能通過 Python 的 pip
工具安裝。
Jupyter IDE
大多數現代資料科學家使用 Python 工作。他們工作中很重要的一部分是 探索性資料分析(EDA)。EDA 是一種手動進行的、交互性的過程,包括提取資料、探索資料特征、尋找相關性、通過繪製圖形進行資料可視化並理解資料的分佈特征,以及實現原型預測模型。
Jupyter 是能夠完美勝任該工作的一個 web 應用。Jupyter 使用的 Notebook 檔案支持富文本,包括渲染精美的數學公式(得益於 mathjax)、代碼塊和代碼輸出(包括圖形輸出)。
Notebook 檔案的後綴是 .ipynb
,意思是“交互式 Python Notebook”。
搭建並運行 Jupyter
首先,使用 sudo 安裝 Jupyter 核心軟體包:
-
$ sudo dnf install python3-notebook mathjax sscg
你或許需要安裝資料科學家常用的一些附加可選模塊:
-
$ sudo dnf install python3-seaborn python3-lxml python3-basemap python3-scikit-image python3-scikit-learn python3-sympy python3-dask+dataframe python3-nltk
設置一個用來登錄 Notebook 的 web 界面的密碼,從而避免使用冗長的令牌。你可以在終端里任何一個位置運行下麵的命令:
-
$ mkdir -p $HOME/.jupyter
-
$ jupyter notebook password
然後輸入你的密碼,這時會自動創建 $HOME/.jupyter/jupyter_notebook_config.json
這個檔案,包含了你的密碼的加密後版本。
接下來,通過使用 SSLby 為 Jupyter 的 web 服務器生成一個自簽名的 HTTPS 證書:
-
$ cd $HOME/.jupyter; sscg
配置 Jupyter 的最後一步是編輯 $HOME/.jupyter/jupyter_notebook_config.json
這個檔案。按照下麵的模版編輯該檔案:
-
{
-
"NotebookApp": {
-
"password": "sha1:abf58...87b",
-
"ip": "*",
-
"allow_origin": "*",
-
"allow_remote_access": true,
-
"open_browser": false,
-
"websocket_compression_options": {},
-
"certfile": "/home/aviram/.jupyter/service.pem",
-
"keyfile": "/home/aviram/.jupyter/service-key.pem",
-
"notebook_dir": "/home/aviram/Notebooks"
-
}
-
}
/home/aviram/
應該替換為你的檔案夾。sha1:abf58...87b
這個部分在你創建完密碼之後就已經自動生成了。service.pem
和 service-key.pem
是 sscg
生成的和加密相關的檔案。
接下來創建一個用來存放 Notebook 檔案的檔案夾,應該和上面配置里 notebook_dir
一致:
-
$ mkdir $HOME/Notebooks
你已經完成了配置。現在可以在系統里的任何一個地方通過以下命令啟動 Jupyter Notebook:
-
$ jupyter notebook
或者是將下麵這行代碼添加到 $HOME/.bashrc
檔案,創建一個叫做 jn
的快捷命令:
-
alias jn='jupyter notebook'
運行 jn
命令之後,你可以通過網絡內部的任何一個瀏覽器訪問 (LCTT 譯註:請將域名替換為服務器的域名),就可以看到 Jupyter 的用戶界面了,需要使用前面設置的密碼登錄。你可以嘗試鍵入一些 Python 代碼和標記文本,看起來會像下麵這樣:
Jupyter with a simple notebook
除了 IPython 環境,安裝過程還會生成一個由 terminado
提供的基於 web 的 Unix 終端。有人覺得這很實用,也有人覺得這樣不是很安全。你可以在配置檔案里禁用這個功能。
JupyterLab:下一代 Jupyter
JupyterLab 是下一代的 Jupyter,擁有更好的用戶界面和對工作空間更強的操控性。在寫這篇文章的時候 JupyterLab 還沒有可用的 RPM 軟體包,但是你可以使用 pip
輕鬆完成安裝:
-
$ pip3 install jupyterlab --user
-
$ jupyter serverextension enable --py jupyterlab
然後運行 jupiter notebook
命令或者 jn
快捷命令。訪問 lab
>
(LCTT 譯註:將域名替換為服務器的域名)就可以使用 JupyterLab 了。
資料科學家使用的工具
在下麵這一節里,你將會瞭解到資料科學家使用的一些工具及其安裝方法。除非另作說明,這些工具應該已經有 Fedora 軟體包版本,並且已經作為前面組件所需要的軟體包而被安裝了。
Numpy
Numpy 是一個針對 C 語言優化過的高級庫,用來處理大型的記憶體資料集。它支持高級多維矩陣及其運算,並且包含了 log()
、exp()
、三角函式等數學函式。
Pandas
在我看來,正是 Pandas 成就了 Python 作為資料科學首選平臺的地位。Pandas 構建在 Numpy 之上,可以讓資料準備和資料呈現工作變得簡單很多。你可以把它想象成一個沒有用戶界面的電子錶格程式,但是能夠處理的資料集要大得多。Pandas 支持從 SQL 資料庫或者 CSV 等格式的檔案中提取資料、按列或者按行進行操作、資料篩選,以及通過 Matplotlib 實現資料可視化的一部分功能。
Matplotlib
Matplotlib 是一個用來繪製 2D 和 3D 資料圖像的庫,在圖象註解、標簽和疊加層方面都提供了相當不錯的支持。
matplotlib pair of graphics showing a cost function searching its optimal value through a gradient descent algorithm
Seaborn
Seaborn 構建在 Matplotlib 之上,它的繪圖功能經過了優化,更加適合資料的統計學研究,比如說可以自動顯示所繪製資料的近似回歸線或者正態分佈曲線。
Linear regression visualised with SeaBorn
StatsModels
StatsModels 為統計學和經濟計量學的資料分析問題(例如線形回歸和邏輯回歸)提供演算法支持,同時提供經典的 時間序列演算法 家族 ARIMA。
Normalized number of passengers across time \(blue\) and ARIMA-predicted number of passengers \(red\)
Scikit-learn
作為機器學習生態系統的核心部件,Scikit 為不同型別的問題提供預測演算法,包括 回歸問題(演算法包括 Elasticnet、Gradient Boosting、隨機森林等等)、分類問題 和聚類問題(演算法包括 K-means 和 DBSCAN 等等),並且擁有設計精良的 API。Scikit 還定義了一些專門的 Python 類,用來支持資料操作的高級技巧,比如將資料集拆分為訓練集和測試集、降維演算法、資料準備管道流程等等。
XGBoost
XGBoost 是目前可以使用的最先進的回歸器和分類器。它並不是 Scikit-learn 的一部分,但是卻遵循了 Scikit 的 API。XGBoost 並沒有針對 Fedora 的軟體包,但可以使用 pip
安裝。使用英偉達顯卡可以提升 XGBoost 演算法的性能,但是這並不能通過 pip
軟體包來實現。如果你希望使用這個功能,可以針對 CUDA (LCTT 譯註:英偉達開發的並行計算平臺)自己進行編譯。使用下麵這個命令安裝 XGBoost:
-
$ pip3 install xgboost --user
Imbalanced Learn
Imbalanced-learn 是一個解決資料欠採樣和過採樣問題的工具。比如在反欺詐問題中,欺詐資料相對於正常資料來說數量非常小,這個時候就需要對欺詐資料進行資料增強,從而讓預測器能夠更好地適應資料集。使用 pip
安裝:
-
$ pip3 install imblearn --user
NLTK
Natural Language toolkit(簡稱 NLTK)是一個處理人類語言資料的工具,舉例來說,它可以被用來開發一個聊天機器人。
SHAP
機器學習演算法擁有強大的預測能力,但並不能夠很好地解釋為什麼做出這樣或那樣的預測。SHAP可以通過分析訓練後的模型來解決這個問題。
Where SHAP fits into the data analysis process
使用 pip
安裝:
-
$ pip3 install shap --user
Keras
Keras 是一個深度學習和神經網絡模型的庫,使用 pip
安裝:
-
$ sudo dnf install python3-h5py
-
$ pip3 install keras --user
TensorFlow
TensorFlow 是一個非常流行的神經網絡模型搭建工具,使用 pip
安裝:
-
$ pip3 install tensorflow --user
Photo courtesy of FolsomNatural on Flickr (CC BY-SA 2.0).
朋友會在“發現-看一看”看到你“在看”的內容