K-meansをOpenMPで並列化
昨年末に「平行コンピューティング技法」を読んで勉強していたのですが、せっかくなのでK-meansにOpenMPを使って高速化してみようと思います。OpenMPは簡単な構文を挿入することで、自動的にループの繰り返しを分割し、複数のスレッドにタスクを割り当ててくれます。
並行コンピューティング技法 ―実践マルチコア/マルチスレッドプログラミング
- 作者: Clay Breshears,千住治郎
- 出版社/メーカー: オライリージャパン
- 発売日: 2009/12/21
- メディア: 大型本
- 購入: 12人 クリック: 598回
- この商品を含むブログ (38件) を見る
作成したコードは以下の通り。コンパイル・実行にはgoogle_sparsehashとOpenMPをあらかじめインストールしておく必要があります。
// K-means++ + OpenMP #include <cassert> #include <cstdio> #include <ctime> #include <fstream> #include <vector> #include <google/dense_hash_map> #include <omp.h> typedef uint64_t VecKey; typedef size_t VecId; typedef google::dense_hash_map<VecKey, double> Vector; typedef google::dense_hash_map<std::string, VecKey> KeyMap; class KMeans; /* function prototypes */ int main(int argc, char **argv); void usage(const char *progname); void read_vectors(const char *filename, KMeans &kmeans); size_t splitstring(std::string s, const std::string &delimiter, std::vector<std::string> &splited); /* constants */ const size_t MAX_ITER = 10; const VecKey EMPTY_KEY = 0; const double LONG_DIST = 1000000000000000; const std::string DELIMITER("\t"); class KMeans { public: typedef google::dense_hash_map<std::string, size_t> LabelMap; private: std::vector<Vector *> vectors_; std::vector<Vector *> centers_; LabelMap labels_; double euclid_distance_squared(const Vector &vec1, const Vector &vec2) const { google::dense_hash_map<VecKey, bool> check; check.set_empty_key(EMPTY_KEY); double dist = 0.0; Vector::const_iterator it1, it2; for (it1 = vec1.begin(); it1 != vec1.end(); ++it1) { double val1 = it1->second; double val2 = 0.0; it2 = vec2.find(it1->first); if (it2 != vec2.end()) val2 = it2->second; dist += (val1 - val2) * (val1 - val2); check[it1->first] = true; } for (it2 = vec2.begin(); it2 != vec2.end(); ++it2) { if (check.find(it2->first) != check.end()) continue; double val2 = it2->second; double val1 = 0.0; it1 = vec1.find(it2->first); if (it1 != vec1.end()) val1 = it1->second; dist += (val1 - val2) * (val1 - val2); } return dist; } void choose_random_centers(size_t ncenters) { centers_.clear(); google::dense_hash_map<size_t, bool> check; check.set_empty_key(vectors_.size()); size_t cnt = 0; while (cnt < ncenters) { size_t idx = rand() % vectors_.size(); if (check.find(idx) == check.end()) { Vector *center = new Vector(*vectors_[idx]); centers_.push_back(center); cnt++; check[idx] = true; } } } void choose_smart_centers(size_t ncenters) { centers_.clear(); double closest_dist[vectors_.size()]; double potential = 0.0; size_t cnt = 0; // choose one random center size_t idx = rand() % vectors_.size(); Vector *center = new Vector(*vectors_[idx]); centers_.push_back(center); cnt++; // update closest distance for (size_t i = 0; i < vectors_.size(); i++) { double dist = euclid_distance_squared(*vectors_[i], *centers_[0]); closest_dist[i] = dist; potential += dist; } // choose each centers while (cnt < ncenters) { double randval = static_cast<double>(rand()) / RAND_MAX * potential; size_t idx = 0; for (size_t i = 0; i < vectors_.size(); i++) { if (randval <= closest_dist[i]) { idx = i; break; } else { randval -= closest_dist[i]; } } Vector *center = new Vector(*vectors_[idx]); double potential_new = 0.0; for (size_t i = 0; i < vectors_.size(); i++) { double dist = euclid_distance_squared(*vectors_[i], *center); if (closest_dist[i] > dist) closest_dist[i] = dist; potential_new += closest_dist[i]; } centers_.push_back(center); cnt++; potential = potential_new; } } void assign_clusters(size_t *assign) const { int vsiz = static_cast<int>(vectors_.size()); #pragma omp parallel for for (int i = 0; i < vsiz; i++) { size_t min_idx = 0; double min_dist = LONG_DIST; for (size_t j = 0; j < centers_.size(); j++) { double dist = euclid_distance_squared(*vectors_[i], *centers_[j]); if (dist < min_dist) { min_idx = j; min_dist = dist; } } assign[i] = min_idx; } } void move_centers(const size_t *assign) { for (size_t i = 0; i < centers_.size(); i++) { centers_[i]->clear(); } std::vector<size_t> count(centers_.size()); Vector::iterator cit; for (size_t i = 0; i < vectors_.size(); i++) { for (Vector::iterator it = vectors_[i]->begin(); it != vectors_[i]->end(); ++it) { cit = centers_[assign[i]]->find(it->first); if (cit != centers_[assign[i]]->end()) { cit->second += it->second; } else { centers_[assign[i]]->insert( std::pair<VecKey, double>(it->first, it->second)); } } count[assign[i]]++; } for (size_t i = 0; i < count.size(); i++) { if (count[i] == 0) continue; for (Vector::iterator it = centers_[i]->begin(); it != centers_[i]->end(); ++it) { it->second /= count[i]; } } } bool is_same_array(size_t *array1, size_t *array2, size_t size) { for (size_t i = 0; i < size; i++) { if (array1[i] != array2[i]) return false; } return true; } public: KMeans() { labels_.set_empty_key(""); } ~KMeans() { for (size_t i = 0; i < vectors_.size(); i++) { if (vectors_[i]) delete vectors_[i]; } for (size_t i = 0; i < centers_.size(); i++) { if (centers_[i]) delete centers_[i]; } } void add_vector(const std::string &label, Vector *vec) { assert(!label.empty() && !vec->empty()); labels_[label] = vectors_.size(); vectors_.push_back(vec); } void execute(size_t nclusters) { assert(nclusters <= vectors_.size()); choose_random_centers(nclusters); // choose_smart_centers(nclusters); size_t assign[vectors_.size()]; size_t prev_assign[vectors_.size()]; memset(assign, nclusters, sizeof(nclusters) * vectors_.size()); memset(prev_assign, nclusters, sizeof(nclusters) * vectors_.size()); for (size_t i = 0; i < MAX_ITER; i++) { fprintf(stderr, "kmeans loop No.%d ...\n", i); assign_clusters(assign); move_centers(assign); if (is_same_array(assign, prev_assign, vectors_.size())) { break; } else { std::copy(assign, assign + vectors_.size(), prev_assign); } } // show clustering result for (LabelMap::iterator it = labels_.begin(); it != labels_.end(); ++it) { printf("%s\t%d\n", it->first.c_str(), assign[it->second]); } } void show_vectors() const { for (LabelMap::const_iterator lit = labels_.begin(); lit != labels_.end(); ++lit) { printf("%s", lit->first.c_str()); for (Vector::const_iterator vit = vectors_[lit->second]->begin(); vit != vectors_[lit->second]->end(); ++vit) { printf("\t%d\t%.3f", vit->first, vit->second); } printf("\n"); } } }; int main(int argc, char **argv) { if (argc < 3) { usage(argv[0]); } //srand((unsigned int) time(NULL)); KMeans kmeans; read_vectors(argv[2], kmeans); // kmeans.show_vectors(); kmeans.execute(atoi(argv[1])); return 0; } void usage(const char *progname) { fprintf(stderr, "%s: ncluster data\n", progname); exit(1); } void read_vectors(const char *filename, KMeans &kmeans) { std::ifstream ifs(filename); if (!ifs) { fprintf(stderr, "cannot open %s\n", filename); exit(1); } KeyMap keymap; keymap.set_empty_key(""); VecKey curkey = EMPTY_KEY + 1; std::string line; std::vector<std::string> splited; while (getline(ifs, line)) { splitstring(line, DELIMITER, splited); if (splited.size() % 2 != 1) { fprintf(stderr, "format error: %s\n", line.c_str()); continue; } Vector *vec = new Vector; vec->set_empty_key(EMPTY_KEY); for (size_t i = 1; i < splited.size(); i += 2) { KeyMap::iterator kit = keymap.find(splited[i]); VecKey key; if (kit != keymap.end()) { key = kit->second; } else { key = curkey; keymap[splited[i]] = curkey++; } double point = 0.0; point = atof(splited[i+1].c_str()); if (point != 0) { vec->insert(std::pair<VecKey, double>(key, point)); } } if (!splited[0].empty() && !vec->empty()) { kmeans.add_vector(splited[0], vec); } splited.clear(); } } size_t splitstring(std::string s, const std::string &delimiter, std::vector<std::string> &splited) { size_t cnt = 0; for (size_t p = 0; (p = s.find(delimiter)) != s.npos; ) { splited.push_back(s.substr(0, p)); ++cnt; s = s.substr(p + delimiter.size()); } splited.push_back(s); ++cnt; return cnt; }
今回OpenMPで並列化したのは、「各データと各クラスタの中心との距離を求めて、最も中心が近いクラスタにデータを割り当てる」部分(assign_clustersメソッドの中)です。OpenMPに関係あるところは、
- OpenMPのヘッダの読み込み
#include <omp.h>
- for文の前に以下の構文を挿入
#pragma omp parallel for
この2つだけです。
実際に動かすときは以下のようにします。OpenMPを使用するときは"-fopenmp"オプションを加える必要があります。このオプションを加えなかった場合は、OpenMPの構文は無視されて、並列化されないまま実行されます。OpenMPを使いたくない場合でも、ソースを修正せずにそのままコンパイル・実行できるのは結構うれしいかも。入力データのフォーマットは1行1ドキュメントのタブ区切りテキストです。
% cat /path/data.tsv # 入力データ 1 a 2 b 2 c 2 d -1 e -1 f -1 2 a 2 b -1 c 2 d -1 e -1 f -1 3 a 2 b 2 c -1 d -1 e -1 f -1 4 a -1 b -1 c -1 d 2 e 2 f 2 5 a -1 b -1 c -1 d 2 e -1 f 2 6 a -1 b -1 c -1 d 2 e 2 f -1 % g++ kmeanspp_mp.cc -O3 -o kmeanspp_mp -fopenmp % ./kmeans_pp 100 /path/data.tsv > cluster.tsv % sort -g cluster.tsv | lv
OpenMPを使った場合と使わなかった場合で、どれくらい実行時間が違うかを簡単に比較してみました。入力ドキュメント数は10000、クラスタ数は100、K-meansのループ回数は最大10回、実行環境のCPUコア数は4で実験しました。また乱数のseedは固定にして実行してあります。
== OpenMPあり == % g++ kmeans_mp.cc -O3 -o kmeans_mp -fopenmp % time ./kmeans_mp 100 /path/data.tsv > /dev/null 315.147u 0.060s 1:25.48 368.7% 0+0k 0+0io 0pf+0w == OpenMPなし == % g++ kmeans_mp.cc -O3 -o kmeans_mp % time ./kmeans_mp 100 /path/data.tsv > /dev/null 491.246u 0.132s 8:11.82 99.9% 0+0k 0+0io 0pf+0w
OpenMPを使用した時の実行時間は1分25秒、OpenMPを使用しなかった場合の実行時間は8分11秒になりました。たしかに高速化されてますね。でもコア数倍以上に早くなってるのは何でだろう?なにかミスがあるのかな。。。
ループ内が完全に独立ではなく複雑な構成をしている場合等では、OpenMPは使用するのが難しいこともあるようですが、これだけ簡単に使えて高速化できるならかなりうれしいですね。さて、次はpthread勉強しようかな。
追記1:OpenMPで並列化している箇所で念のためスレッド間の競合を避けるために、各スレッドが共有しているstd::vectorを配列に変更しました。各スレッドが別インデックスでvectorを読み書きするときに、vectorのサイズをあらかじめ確保している場合でも競合って発生しちゃうんですかね?vectorが中で勝手にresizeしたりするのかな…。
追記2:pragma節内の変数j, min_idx, min_dist, dist をprivate指定しないとまずいのでは?と指摘があったのですが、下記の資料を参照したところ、
並列実行領域のローカルデータはプライベートとなります。
と書いてありましたので、おそらく問題はないかな…?