2013年12月9日月曜日

(自分用メモ)R 時系列分析の関数まとめ

Rには時系列分析用のパッケージがいろいろありますが、授業で使っているパッケージ・関数を備忘のために、まとめておきたいと思います。

まずデータを入手したら

  1. 時系列プロット
  2. 単位根検定(Augmented Dickey–Fuller Test, Phillips-Perron Test for Unit Roots)
    • adf.test(data, alternative ="stationary") (tseries package)
    • PP.test(data)
データが非定常だったら・・・
  1. 移動平均でdetrend
  2. 単位根検定でひっかかったら、diffを取る(ex: Z_t = Y_t - Y_t-1)
  3. Exponential smoothingでdetrend
    • Simple Exponential Smoothing
      • HoltWinters(data,alpha=数字, beta=FALSE, gamma=FALSE) #ARIMA(0,1,1)と同じこと
    • Double Exponential Smoothing
      • HoltWInters(data,alpha=数字, beta=数字, gamma=FALSE) #ARIMA(0,2,2)と同じこと
    • 以下2つを使う場合、dataはtsオブジェクトでfrequencyが定義されてるもの
    • Seasonal Exponential Smoothing without Trend
      • HoltWinters(data,alpha=数字, beta=FALSE, gamma=数字) 
    • Seasonal Exponential Smoothing with trend
      • HoltWinters(data, alpha=数字, beta=数字, gamma=数字)  


データは定常。ではWhite noiseか?
  1. 時系列データがWhite noiseかどうかの検定 (Box Pierce , Box Ljung test)
    • Box.test(data, lag=1 , type = c("Box-Pierce", "Ljung-Box")

White noiseではないようだ。では、ARIMAモデルか?
  1. Sample Auto Correlation, Sample Partial Auto Correlationのプロット
    • acf(data, plot=TRUE)
    • pacf(data,plot=TRUE)
  2. ARMAのパラメータ候補を絞りたい
    • eacf(data) (TSA package)
  3. ARIMA(p,d,q) モデルの推定(dataはtsオブジェクトです)
    • arima(data, order=c(p,d,q),method="ML")
  4. ARIMA(p,d,q) モデルの推定(dataはtsオブジェクトです)
      • arima(data,order=c(p,d,q),seasonal=list(order=c(P,D,Q),period=S),method="ML")

    ARIMAモデルの残差はWhite noiseになったのか?
    1. 残差プロット + Box testでチェック
    2. 残差プロットの中でvolatility clusteringがあれば、ARCH LM testをやってみる

    ARCH/GARCHモデル
    1. garchFit(~arma(p,q)+garch(q,p),data=data) (GARCHのパラメータqはalpha, pのパラメータはbeta)

    予測
    1. arimaで推定したモデルであれば、forecast(arimaクラスのオブジェクト) (forecast library)
    2. garchFitで推定したモデルであれば、predict(fGarchクラスのオブジェクト)

      2013年11月1日金曜日

      第2モジュールスタート!

      さて、先々週から第2モジュールが始まりました!

      第2モジュールは、以下のラインナップです。

      Time Series Analysis for Business and Finance
      前モジュールでやった回帰分析の授業の続きという位置づけですが、まずARプロセス、MAプロセス、ARMA, ARIMA, SARIMAといった時系列のモデルを勉強します。今後、ARCH、GARCHなんかもやるみたいです。今のところ、主には理論をやっていますが、今後はRとSASを使って分析をやっていくようです。

      Machine Learning
      一番思ってたのと違うのが、この授業・・・・。かなり理論寄りです。マシンラーニングは、Rとかで動かすっていうだけだと結構楽しい代物ですが、それなりに数学もやると、そこそこヘビーです。しかも、実際に動かすのは、PythonのScikit-learnです。私はR使いなので、Rでやるほうが楽だったのですが、仕方ない・・・。

      Distributed Databases
      こちらは、SQLから、NoSQLへの発展編です。最初2回は、MySQLのおさらいと少し応用編をやり、次回からはMongoDBを使おうという流れです。MySQLは前期のData Acquisitionの復習に始まり、変数の使い方、Stored procedure, stored functionといった内容をやりました。先生が愉快な方なので、楽しいです。

      Practicum 1 
      強制的に企業とのコラボプロジェクトにアサインされます。会社の希望は出せますが、人を選ぶのは会社側らしく(事前にレジュメを提出します)、必ずしも希望の会社にアサインされるかはわかりません。会社によっては面接したりします。だいたい1週間に2回くらい出社するように言われているクラスメートが多いようです。詳細は書けないのですが、コラボ先企業は、シリコンバレーのベンチャーはもちろん、金融、小売、交通、自治体など多岐に渡ります。

      2013年10月7日月曜日

      Kaggle Hackathon!! ハッカソン!

      先日、サンフランシスコのマイクロソフトで行われたKaggle Hackathonに、クラスメートと参戦してきました。

      結果は8位。上出来です!

      Kaggle Hackathonとは、24時間レースで、機械学習の精度を競い合うコンペです。

      今回のテーマは、あるソーシャルネットワークのサイトのView数、コメント数、投票数を予測するというもので、そのサイトは、ある地域住民が地域の不満や改善してほしい点を投稿し、他のユーザーが、コメントしたり投票したりします。

      そして、投票数が多いものに関しては解決が図られるというものです。たとえば、「道に落書きがあり、汚いから、なんとかして!」みたいな投稿に対して、投票されます。

      うちのチームは人数あ多かったので、24時間の間でもいろいろな手が打てたのも好成績の要因だったと思います。私は、投稿のタイトルをテキストマイニングして、新たなダミー変数を作るということをしてました。表記ゆれ、スペルミスを正規表現で修正していくような感じですね。

      残念ながら、作った変数はあまり予測力向上に役立ちませんでした。



      オンサイトのコンペで良いのは、優勝者と話ができることです。優勝した方と話したら、テキストデータは最初に分析しないと決めていたといってました。データをざっと見て、あまり相関してなさそうだと見たということです。

      さすが、洞察がするどい!自分は、そういう感覚がまだあまり備わっていないなぁと感じてしましました。データをざっと眺めて、最初にplay aroundしたときに、予測する変数と説明変数の間にどんな関係がありそうかを見出すというのが肝心だということです。

      できることが増えると、やってみたい分析をやってしまうという陥りやすい罠にはまってしまうということを学習しました。

      他のKaggleコンペにも参戦しているので、今回の教訓を活かします!でも、チームで8位とれたので、よしとしましょう!

      2013年9月20日金曜日

      (Pythonメモ)Google Financeのニュースヘッドラインを取得するPythonコード

      株価とニュースの関係を分析してみたいなぁと思って、Google Finance (US)を取り込むコードを書いた。

      getHeadkineという関数に、対象となる会社のticker、その会社の属するmarket(NASDAQなど)、検索対象となる開始日と終了日をstartとendというパラメータで指定すると、keyが日付、valueがヘッドラインの辞書を返す。

      from __future__ import unicode_literals
      import urllib2
      import urllib
      import re
      from datetime import datetime,timedelta
      import nltk

      def getHeadline(ticker,market,start,end):
          query = urllib2.quote(ticker+':'+market)
          base = 'https://www.google.com/finance/company_news?q='
          url = base + query + '&startdate='+ start +'&enddate=' + end + '&start=0&num=10000'
          print url
          html = urllib.urlopen(url).read()
          raw = nltk.clean_html(html)
          raw = unicode(raw,errors='ignore')
          data = raw.split('\n')
          data =  data[60:-1]
          while u' ' in data: data.remove(u' ')

          monthDict = {'Jan':'01','Feb':'02','Mar':'03','Apr':'04','May':'05','Jun':'06','Jul':'07','Aug':'08','Sep':'09','Oct':'10','Nov':'11','Dec':'12'}

          news={}

          for i in range(0,len(data),1):

              t = re.match(r'[\s\w0-9/\.,:;\(\)]+\-\s([0-9\w\s]+)\sago\s*',data[i])
              o = re.match(r'[\s\w0-9/\.,:;\(\)]+\-\s(\w+)\s([0-9]+),\s(201[0-3])\s*',data[i])
              if t:
                  hours =  int(t.group(1).split(' ')[0])
                  delta = timedelta(hours=hours)
                  gmt = timedelta(hours=7)
                  d = datetime.today() - delta + gmt
                  year = str(d.year)

                  if d.month <10:
                      month = '0'+str(d.month)
                  else:
                      month = str(d.month)
                  if d.day < 10:
                      day = '0'+str(d.day)
                  else:
                      day = str(d.day)

                  key = year+'_'+month+'_'+day

                  if key in news.keys():
                      news[key].append(data[i-1])
                  else:
                      news[key]=[]
                      news[key].append(data[i-1])

              if o:
                  #Month
                  m = o.group(1)
                  month = monthDict[m]
                  day = o.group(2)
                  year = o.group(3)

                  key = year+'_'+month+'_'+day

                  if key in news.keys():
                      news[key].append(data[i-1])
                  else:
                      news[key]=[]
                      news[key].append(data[i-1])

          return news

      #Example : getHeadline
      #Output is a dictionary like this: { date : [headline1, headline2,.....], date:[headline3],......}
      #the keys (time) is not ordered.Also, time is GMT (I checked the publish time in RSS xml).
      #The function requires 'ticker', 'market name', 'start date'(YYYY-MM-DD) and 'end date' (YYYY-MM-DD)
      print getHeadline('AAPL','NASDAQ','2012-09-01','2013-09-15')

      2013年9月1日日曜日

      秋学期 第1モジュール ここまでの内容

      今週末はLabor Dayで3連休です。


      少しゆっくりできるかと思いきや・・・


      宿題の雨あられですので、気が抜けない状況です。


      ここまでの学校の様子を残しておきます。


      秋学期は8月中旬から12月中旬までの4か月間で、Analytics programは2か月ごとのモジュールに分かれています。最初のモジュールは、


      1. Business Communication for Analytics 【週2】
      2. Linear Regression 【週2】
      3. Data Acquisition (DA) 【週1】
      4. Exploratory Data Analysis (EDA) 【週1】
      の4つの授業があります。これらに加えて、週1回のゲストスピーカーのプレゼンに出席するということになっています。


      Business Communication for Analytics

      International Studentにはもっとも過酷な授業です。授業が始まる前に、Program Directorから、英語をもっと練習しないとついていけないだろうと警告されたくらいです(単に、私の英語力不足ですが)。

      この授業では、「技術的な内容を、それを知らない人に伝える」ということが大きなテーマになっています。なぜなら、分析は、専門でない人にとって難しく見えてしまいます。しかし、多くの場合、専門でない人が意思決定者であり、お客さんです。そのため、いかにインサイトをわかりやすく腹落ちさせるかというところが、非常に重要になるためです。

      もちろん、Data Visualizationなど見た目が華やかでファンシーなコミュニケーション手法もありますが、この授業では、Writing, Speakingがフォーカスになっています。


      Linear Regression

      Boot Campの統計の授業の続きというのが実際の位置づけです。授業の名の通り、ひたすら、回帰分析を勉強しています。ちなみに使用言語はRです。


      ここまでは、最小二乗法による回帰分析とその特性、モデルの診断の仕方を学びました。また、ロバスト回帰などもトピックに上がっています。私にとっては、学部のときには勉強しなかった、Cook's Distanceや、Leverageなんかも勉強できて、ハッピーです。


      Data Acquisition (DA)

      先生は実務で活躍されている方で、内容は実践的です。扱う内容は、分析ではなく、データ取得、クレンジングなどのデータ分析をする手前までのすべてということになります。使用言語はPython。


      ここまでのところ、正規表現、JSONファイルとCSVファイル(マトリックス形式のデータセット)の円コーディング・デコーディングなどを扱っています。今後は、ソーシャルメディアのAPIなどにも触れる模様です。


      Exploratory Data Analysis(EDA)

      先生はシリコンバレーで仕事をしている実務家の方で、かなり実践的です。ちなみに、使用言語は、PythonとRです。
      Data Acquisitionと少しかぶりますが、こちらは、集計、可視化に重きが置かれています。


      今年、出願を検討されている方がいらっしゃいましたら、もっと詳しくお伝えできますので、ぜひご連絡ください!

      ではでは、宿題に戻ります・・・

      2013年8月17日土曜日

      夏休みの思い出

      KAGGLEのコンペだけやっていたわけではありません。

      ちゃんと、友達と小旅行に出かけたので、その記録を残しておきます。



      ①アップルの本社前
      住所が、1 infinite loopというなんとも言えない住所でした。





      ②スタンフォード大学のキャンパス
      きれいです。いい天気です。





      ③ スタンフォード大学内の教会です。
      荘厳です。すごい装飾です。






      ③スタンフォード大学の教室棟?の回廊
      このアーチ型の影、憧れです。



      KAGGLE

      KAGGLEってご存知ですか? 

      データ分析のコンペを行っている会社で、いろいろな会社がテーマとデータを提供し、それに対して参加者が機械学習のモデルを構築し、その精度を競い合うというものです。

      先日、KAGGLEのChief ScientistのJeremy Howard氏がゲストスピーカーで来校して、いろいろとお話しされていたので、ホームページを見てみたところ、面白そう!!ということで、参加してみました。

      KAGGLE
      http://www.kaggle.com/



      私が参加したのは以下の2つのコンペです。

      ・ Yelp(ぐるなびみたいなもの)のリコメンデーションシステムの精度コンペ
      ・ タイタニックの生存予測の精度コンペ



      実際にやってみると、結構はまってしまいまして(あまりに楽しい・・・)、貴重な夏休みをほとんど使ってしまいました。まるで、テレビゲームにはまった子供状態です。


      まだコンペの締切まで時間がありますが、夏休みの宿題をそろそろやり始めないとやばいので、心を鬼にしてRとPythonを閉じました。



      このコンペを通じて、いくつか自分の中で考えないといけないことがあるなぁと思いましたので、忘れないようにまとめておきます。


      課題その1
      参加者平均はいくものの、そこから抜けられない。

      両方のコンペでの課題です。この原因は2つあると思っていて、データ作り・特徴量づくりがイケてないのと、手法の習熟度が低いことです。特に前者が大きな問題だと思っています。

      両方のコンペで、ランダムフォレスト、ニューラルネットワーク、rpartの決定木、ロジスティック回帰などいろいろ試しましたが、精度はランダムフォレスト、ニューラルネット、rpart概ね同じでした。インプットしているデータが判別に役立っていないからでしょう。

      どうやって精度をあげていくか、アメリカにいる間に掴んでいきたいものです。


      課題その2
      モデルの評価をうまく整理できない。


      たくさんモデルを作るなかで、「あれ、さっきのモデル、どの名前だったけ?」ということが起きて、時間をロスしました。

      さらに、精度もRの打ちだしだけで見て確認して、終わり!ってやっていたので、あとで振り返ることができないという事態が発生。。。作成したモデルの管理、評価、改善点がどこかについて、うまく回せるようにしないと、効率悪くて仕方ないです。


      結果は満足できないですが、いろいろと反省点や問題意識も持てたので、楽しい夏休みでした。


      さぁ、マジでリーディングやらないと・・・・

      2013年8月12日月曜日

      Speakingの上達

      こちらにきて、3か月が経とうとしています。語学学校に6週間、USFのAnaluyticsのBoot Camp5週間、と計11週間授業を受けてきました。Speakingが上達してきたね!と先生からも良いフィードバックをいただいて、ご機嫌な今日この頃です。


      Native Speakerの人と話していて、よく What?って聞き返されるときは、イントネーションがおかしなときです。これは先生からもアクセントがストロングだ!と指摘されます。特に、慣れてくると、つい早口になってしまいますが、このときにアクセントがめためただとわかってもらえてないです。

      なるべく丁寧に発音することが大事ですね!

      昨日は飲みすぎたので、今日は一日本でも読んでゆっくりしよ。

      2013年8月3日土曜日

      Boot Campもあと1週間!

      ついに金曜日!そして、Boot Campも残るは1週間。

      Boot Campという名前だけあって、そこそこしんどいものがありましたが、何とかパスできそうです(Boot Campで1つでもFailすると、MSANのプログラムを続けられず、来年再チャレンジということになります。実際に去年は数名いたようですが、今年戻ってくることはなかったそうな)。


      気は抜けませんので、最後まで頑張ります。


      ここまでで面白いと思ったトピックを備忘で残しておきます。


      Inverse Method
      乱数発生法で、累積密度関数(CDF)の逆関数を使って、ターゲットの分布関数(pdf)の乱数を発生させる手法です。逆関数には0から1の一様分布を使います。CDFが求められる場合には簡単に乱数を発生させられます。離散分布のpmfも少し工夫すれば求められます。


      Acceptance-Rejection Sampling
      CDFが求めにくい関数もあるでしょう。たとえば、正規分布とか。そういうときは、Acceptance-Rejection Samplingを使うとターゲットの分布を求められます。これは、一様分布 Uとサポートする密度関数の乱数xを発生させて、U  < f(x)/c*g(x)   (f(x)がターゲットの密度関数、g(x)がサポートとなる密度関数)を満たしたときのxを、ターゲットの分布関数からの乱数として採用(Accept)するという手法です。

      たとえば、標準コーシー分布をサポートの密度関数 g(x)、ターゲットの分布 f(x)を標準正規分布とします。そして、定数cは、y = f(x)/g(x)を最大化させたときのyをc とします。そして、標準コーシー分布からの乱数x と一様分布から乱数のUを以て、U < f(x)/c*g(x) を評価して、この条件を満たしたxを貯めていきます。この試行をたくさん繰り返して、貯まったxのヒストグラムを描くと、あ~ら~不思議、標準正規分布の乱数が得られてしまうのです。面白いです。


      Randomization Test
      ブートストラップの1種だと思われますが、私が習ったのは相関係数のケースです。2列のペアになっているベクトルのかたっぽを固定、もう一方の並びをランダムに並び替えて、相関係数を計算します。当然ゼロに近い数字になります。この試行をたくさ~ん繰り返して、全試行の相関係数をヒストグラムで描くと0を中心にした正規分布のような分布が出てきます。これって、p = 0 を帰無仮説にしたときの経験分布ですよね。これを使って、帰無仮説をp = 0, 対立仮説をp !=0 で検定する手法です。Empirical p valueを計算できますので、検定できます。



      そのほか、ノンパラメトリックの検定手法(Sign Test, Signed rank Test, マン・ホイットニーのU検定など)も面白いですが、乱数については初めて勉強したので、特に興味深いです。残りのBoot Camp、そして8月中旬から始まる秋学期も楽しみです。

      2013年8月2日金曜日

      俺のPyCharmが止まらない

      宿題で簡単なウェブログ解析(解析というほどのもんでもないんですが)をやっております。

      100万ユニークユーザーのリクエストページのシークエンスを読み込んで、ユーザー数やページ遷移をPythonで集計するんですが、その処理が1時間経っても終わらず、PyCharmがうなっております・・・。そして、キーボードが暖かい。


      今後、それなりの大きさのデータや多次元の最勾降下法など繰り返し計算するものもやっていくと予告されているので、速いコードを書けるようになるのは重要かもしれないです。


      ただ、速くて短いコードを書けるって、センスの域も多分にあると思うんです。昔、ゼミの後輩で待ち行列のシミュレーションのコードを自分の3分の1の行で書いてきたやつがいて、「自分にはコードを書く才能はないなぁ」と感じたことを思い出しました。

      とはいえ、宿題の締切もあるので、少しでも早いコードを書けるようにしたいものです。

      と書いているうちに残り4万行!あと少しで終わりそうです。

      2013年7月26日金曜日

      Boot Campも折り返しだ!

      明日で3週目が終わります。Boot Camp折り返しです。結構、早いなぁという印象です。毎日図書館で宿題をこなして寝るという毎日を土日関係なく繰り返しているような感じです。

      備忘のため、ここまでの様子をまとめておこうと思います。


      Boot Campでは、
      ① Computation (主にPython)
      ② Linear Algebra
      ③ Probability& Stats
      ④ Data Driven Business Strategy

      の4科目から3科目受講します。実際は、Data Driven Business Strategyは全員必修なので、選べるのは3科目中2科目です。私は、ComputationとProbability&Statsを履修していますが、Linear Algebraも聴講しています。ほとんどの人は、履修していない科目も聴講しているので、結局ずーっと一緒にいます。


      授業は結構ハード(スピード早い&宿題多い)です。毎週クイズがあるので、準備も必要です。聴講している科目でもクイズを受けるので(あんまり悪いと恥ずかしい)、結局全部宿題をやることになります。他のクラスメートも同じような感じです。

      Linear Algebra
      私は、聴講しているLinear Algebraが意外に苦戦中です。おそらく日本の教養科目でやる線形代数は、連立一次方程式を解く、行列式を計算できる、逆行列が求められる、固有値・固有ベクトルが求められるというのがスタンダードだと思います。各内容のコンセプトよりかは計算できることに
      重きが置かれている印象です。

      しかし、ここでの授業はコンセプトとそれを使いこなすことが求められているように感じます。クイズや宿題も幾何と行列の間の関係をクリアにできていて、各理論の内容を理解していることが求められています。ここが苦戦のポイントです。計算はできるけども、幾何の世界で考えていなかったので、「いったいなんのこっちゃ??」みたいなものがあります(ただの勉強不足?)。

      Probability&Stats
      Probability&Statsは、大学で指導教官に鍛えてもらっていたので、そんなに辛くないです(英語の教科書を使っていたこともあって、英語の問題も少ないです)。これは感謝です。内容は、基本的な期待値、分散の計算から、最尤推定、信頼区間、仮説検定といったいわゆる統計学概論でやるようなことをざーっと流していきます。しいて言えば、もう少し微積の復習をしておくべきだったかと思っています。クイズ中に、arctanがわからず、先生に「what is arc?] と質問してしまいました(恥)。

      Computation
      主にPythonでプログラムを書いていきます。内容は結構幅広く、乱数の発生(Libraryや関数を使わずに)やツリー構造のサーチ(Breadth-first, depth-first)といったコンピュータサイエンスチックなものから、最近はNumpy, Scipy,を使って、Central Limite Theoremのシミュレーションやbootstrapといった統計っぽいものまで幅広いです。プログラミングは好きなので、純粋に楽しいです。もはや趣味です。

      Data Driven Business Strategy
      Business Strategyとなっていますが、主にはAnalyticsコースに関わる数学以外のことすべてについての概論です。Analyticsのプロセスと各テクニック(Hadoopとは?Machine Learningとは?など)をざーっとみていきます。先生がコンサルティングもやっている方なので、実務上どうしているのかなどは聞きやすいですし、今予定されているゲストスピーカーも豪華です。


      日本人は私以外いないので、もし興味持たれている方がいたら、質問などあったら、できる限りお答えしたいと思います。

      2013年7月13日土曜日

      1週間おわったー!

      今日はHappy Friday! 最初の1週間が終わりました!

      そして、一応、夏学期のBoot Campの授業すべて出そろいました。

      どの授業も先生の教え方はうまいと思います。特に、Linear AlgebraとProbabilityは、あくまでデータを扱うことを前提に授業が進みますので、基礎的な内容ではあるものの、新鮮です。

      たとえば、

      行列A, B, C があったときに、 (AB)C = A(BC) (掛け算の順番を変えても答えは同じとなる)

      というのがあります。線形代数の初歩の初歩です。

      しかし、授業では、

      もし、Aがすかすかの超でかい行列(0ばっかり), BとCが超でかい浮動小数点いっぱいの行列だったときに、どうかけたらメモリを節約できるか、早いかみたいな話をします。

      BとCを最初にかけると、すごい大変ですが、ABを先に計算すれば、ABの計算結果もすかすかの行列になるので、こっちのほうが低コストだ!みたいな感じの説明がされます。

      来週も楽しみです。

      そして、これから、Shindigです!ビール買ってこなきゃ。

      ではでは。

      2013年7月11日木曜日

      PyCharm、結構いいな~

      USFのAnalyticsで使うのは、RとPythonです。Pythonも、Rと同様、データ加工や統計の計算に使われる模様です(すみません、まだ授業が始まったばかりで今後のことはわからないのですが、シラバスみるとそんな感じ)。

      Rはよく使っていたので、なじみがあったのですが、Pythonは初心者です。しかし、クラスメートに教えてもらったPyCharmというIDEを使ってみたら、「あら、賢い!!」と感動してしまいました。

      これなら、初心者でもできる!

      PyCharm、とってもお勧めです。

      ちなみに、JetBrain社が作っているようで、ここからダウンロードできます。


      有償ですが、30日間は無料で使えますので、試してみてはいかがでしょうか?

      Rをすでに使用されている方なら、Pythonのインタラクティブシェルは魅力的だと思います。私も、Rでインタラクティブシェルに慣れていたので、ipythonを最初使っていました。しかし、デバッグやナビゲーション機能などを考えると、PyCharmは非常に良いです。

      とはいえ、インタラクティブシェルのほうが慣れていて、ちょっと手を動かしたいときにはipythonを使って、ちゃんとプロジェクトで書くときに、PyCharmを使うというような感じで使い分けています。

      Python、楽しいな~

      いよいよAnalyticsコース始まりました!

      今週より、待ちに待ったAnalyticsコースが始まりました。7月から8月中旬は通常の大学であれば、夏休みですが、USFのAnalyticsでは、Boot Campと呼ばれる、線形代数、確率・統計、ビジネス・経済、プログラミングの基本を総復習するモジュールに充てられています。

      これらは、大学で勉強した、もしくは実務で使っていたということが出願条件になっていますので、ここでつまずくということは、「おいおい、お前ちゃんと出願条件満たしてないじゃないか!!」ということになり、非常に厳しい状況に追い込まれます・・・。

      なので、基本と言っても、気は抜けません。私の場合は、大学卒業したのもかなり前ですし・・・。

      ということで、気合入れて頑張っていきたいと思います。

      2013年6月29日土曜日

      Intensive English Program 終了!

      今日がUniversity of San Francisco(USF)のIntensive English Program(IEP)の最終日でした。

      実際は、IEPはセッションAとセッションBに分かれており、セッションAが今日までです。再来週からAnalyticsのコースが始まるので、私はセッションAだけの受講ですが、2年のMasterやBachelorに行く「クラスメートはセッションBも受講してFallセメスターに突入するようです。


      最終日はTOEFLのPBT(ITP)を受験しました。なんでも、このスコアはUSFのアドミッションにオフィシャルスコアとして提出できるようです(他の学校には出せません)。そのため、USFの修士に進みたいクラスメートは結構真剣に受験してるようでした。


      感想ですが、IBTに比べると・・・PBTはまったく別の試験です。。。


      スコアがまだ出てないので大きなことは言えないのですが、問題の質や語彙のレベル、質問の細かさが違います。とてもシンプルな問題ばかりでした。


      そして、IEPが終わっての感想ですが、大きく分けると以下の収穫があったと思っています。

      ① 英語、とくにスピーキングとリスニングの向上

      ② 日本ってなんだろう?と思えたこと


      ①はもちろん、IEPを受講した最大の目的です。

      6週間、ときおりかったるいなぁと思ったこともありましたが、毎日英語を聞き、話すという中で、英語でのコミュニケーションに抵抗はなくなりました。

      聴こえなくても、理解してもらえなくても、質問して、言い換えて、コミュニケーションをとる・・・わかったふりをしない。そんな姿勢が身についたと感じます。

      英語力があがったというよりかは、英語でのやりとりの自分なりのプロトコルが身についたという感じでしょうか。

      Analyticsはネイティブスピーカーがたくさんいますから、どこまで通用するかわかりませんが、普段どおりの自分で臨めるような気がしています。


      ②は思わぬ収穫でした。前にも書きましたが、クラスでは、英語を勉強するというより、もう少しアカデミックな内容を勉強します。たとえば、遺伝子組み換え食品・作物についてや、偏見・ステレオタイプが悪いものなのか?など。結構、Controversialです。

      そのようなトピックなので、サウジアラビア、クエートなどの中東のクラスメート、ドイツ、スウェーデンなどのヨーロッパ、トルコ、コロンビアとかなり幅広いので、いろいろな意見が出ます。その中で、日本や日本人から見て、そのトピックをどんな切り口で見ればいいんだろうと何度も思いました。きっと、日本らしさや日本文化のようなものがわかっているようでわかっていない、少なくとも口に出して説明できるほどではないということを痛感しました。

      これは、すぐにわかるものでもないので、長期的な宿題です。でも、きっと視野が広がった、ということなんだと思います。

      と、いろいろ書きましたが、IEPが無事に終わり、まずは安心しました。次はいよいよ本番のAnalyticsのクラスが始まります!!

      2013年6月22日土曜日

      発音のおすすめ練習方法

      TOEFLのSpeaking対策では、Donaldのところに通っていたのですが、久々にホームページを見たら、いいものを発見しました。

      Improve Your English Pronunciation: Common Sound Mistakes of Japanese Speakers


      買ってみたところ、非常に良いです。中身は日本人に発音しにくい、LとRに始まり、PとB、VとF などなど発音のコツが、テキストとビデオ、オーディオファイルで丁寧に解説されています。4000円弱だったと思います。少々高いですが、その価値ありです。

      語学学校でも、発音やイントネーションは注意されますが、クラスは私だけではないので、細かくは指導されません。そんなときにこの本を見つけたので、ちょうどよかったです。TOEFLのSpeakingでお悩みの方がいたら、試してみると良いかもしれません。


      2013年6月17日月曜日

      現地で見えてきたSpeakingのコツ

      サンフランシスコに来てからちょうど1か月が過ぎました。

      だんだん観光気分から「住んでる感」が出てきていて、炊事や洗濯(コインランドリー通いだけど)、買い物など日常生活のペースが掴めてきています。

      英語のほうは、まだまだスピードの早い会話も聞き取るのがきついですし、しゃべりなんかはひどいもんで、イントネーションと発音が悪いjから、聞き取ってもらうのも大変。

      そんな中、少し気づいたことがあります。

      Writingが得意だけど、Speakingが苦手な人は、早口になる傾向があるように思います。おそらくTOEFLを受験する多くの日本人の方は該当するのではとお思います。もちろん、私も該当しますし、南米や中東のクラスメートにもいます。

      そういう人は、語彙は結構出てくるので、自分ではしゃべっているつもりなんだけど、語彙の発音がきちんとしていないのに加えて、イントネーションがイマイチだから聞き取ってもらえない、ということがあります。

      たとえば、イントネーションでいうと、increase という単語。

      私は、この単語が動詞のときと名詞のときで、アクセントが違うとは知りませんでした(恥)
      発音もイントネーションも、わかってもらえるだろうと、適当にやってきたツケです・・・

      今更ではありますが、TOEFLのスピーキングでも、きっと早口で、適当に発音してたんだろうと思います。だから、点数が伸びなかった・・・・もっと、発音とイントネーションを意識して練習すれば、もう少しマシな点数が出たのではと思います。

      今、TOEFLを受験されている方がこのポストを見ていたら、ぜひ自分のスピーキングを録音して、発音、イントネーションがどうか、丁寧に見ていったらよいと思います!

      私も、ひとつひとつ丁寧に発音、イントネーションを確認しながら、聞き返されることを減らせるように練習しようと思います!

      2013年6月3日月曜日

      Intensive English Program (語学学校)

      5月20日よりUniversity of San FranciscoのIntensive English Program(IEP)が始まりました。
      このコースは合計6週間で、いよいよ明日からは3週目に突入です。

      こういってはなんですが・・・正直、当初はそこまで期待してなかったのですが、先生の教え方やクラスメートのDiversityなど、いろいろ条件が良かったのか、とても有意義に過ごせています。

      なので、少しIEPのことを書きたいと思います。

      授業は、月曜日から金曜日、朝9時半から午後3時過ぎまで、結構みっちりです。

      初日にPlacement testというクラス分けテストを受けて、2つのクラスに分けられます。分け方は、上級クラスと初級クラスみたいな分け方でしょうか。Placement testは、基本的なリスニングとグラマーのチェック、あとは短いEssayを書きます。

      午前中は主にはReadingやWriting、ReadingやWritingといっても授業中は、教科書のテーマや先生が持ってくる新聞の切り抜きなんかを読んで、先生がファシリテーとしながら、みんなで議論するというような感じで進みます。

      このクラスでは、単に英語がうまくなるということが主眼ではなく、アメリカ文化の理解に重点が置かれているように感じます。そのため、授業の中で、アメリカの文化と各国の文化との比較がハイライトされます。日本はどうなの?って聞かれますが、先生やクラスメートのほうが詳しかったりして、自分の日本についての無知さに残念さを感じます。

      午後のクラスは、Oral Communicationのクラスです。発音などもやりますが、プレゼンテーションの練習をしたり、イディオムを勉強したりと、カバー範囲は広いです。やはり、このクラスでも、文化の違いはよくテーマになります。

      そして、5時間ほど授業を受けた後、宿題もそれなりに出ます。だいたい、1日2時間くらいは使います。

      Writingはエッセイもありますし、教科書の問題に対して短答するというようなタイプの宿題もありますが、だいたい1日500 wordから1000 wordくらい書くようなイメージでしょうか。Readingも数えたことはないですが、TOEFLのReadingで2題から3題分くらいは読んでると思います。

      先生たちも本気で教えてくれていると感じられますし、非常にサポーティブです。。また、良いクラスメートたちとの出会いもあり、So far so goodって感じです。

      ちなみに、写真はUSFキャンパスにある教会です。小さい大学ですが、キャンパスは綺麗ですし、なかなか良いです(Analyticsは本キャンパスではなく、ダウンタウンキャンパスなので、バスで通うことになるので、IEPが終わったら、通わなくなってしまいますが・・・)。





      2013年5月18日土曜日

      サンフランシスコ生活スタート!

      ようやくインターネットが開通した!ということでブログを更新します。
      現状ですが、到着から3日が経過して、住居、日用品、インターネットの整備までこぎつけました。

      ここまでの流れを少しばかり書き残しておきます。

      【住居】
      サンフランシスコにいらっしゃる不動産仲介?の方にお願いして、家をさがしてもらいました。その結果、到着日に内覧、その日に審査してもらって、その日の夜にはOKというお返事をいただきました。

      当初は5月いっぱいくらいかかるかなと思っていたので、ホテルを連泊で予約していたのですが、1日泊まっただけで、あとはキャンセルしました。金額的にもかなり助かりました。

      家は、大学の近くで部屋もきれいですし、いい感じ。とりあえず気に入っています。

      サンフランシスコの1人暮らしの費用はかなり高いです。15万円くらいの家賃は平気でします。ルームシェアとかしたらよいんでしょうけど、おっさんですし、気使いますから、多少高くても1人暮らしできるところが決まってよかったです。

      【日用品】
      ベッド、机は不動産仲介の方から借りました。なんでも退去するときの処分が大変だそうで、借りたほうが楽というアドバイスを信じて、お借りしています。そのほか、生活用品は家の近くのスーパー、食料品店にそれぞれ2往復くらいして揃えました。本当は車があれば一発なんでしょうけど、1年ですし、ダイエットも兼ねて、歩きます。

      【インターネット】
      COMCASTというプロバイダーと契約して使っています。一刻も早くインターネットができる環境にしたかったので、店舗まで行ってその場でモデムを借りてきました。

      そこからが少々やっかいで、モデムとPC間のwi-fi接続はできたものの、モデムからインターネットがつながっていないとエラーメッセージが出てしまい・・・あ、そういえば、Activationをしろって言ってた思い出して、マニュアルを読むと、確かにActivationするためのURLが書いてある・・・

      しかし、インターネットがつながってないからActivationするページには行けないと、鶏と卵どちらが先か的な問題になりました。随分おかしな仕様だなぁと思いましたが、スマートフォンから接続してどうにかActivateさせました(電話でもできたようです)。

      いよいよ、来週から語学学校が始まります!友達何人できるかな。

      2013年5月10日金曜日

      ビザ到着!

      ビザが到着した。面接日からちょうど一週間。素晴らしい!!
      出国日に間に合ったから一安心です。面接日からビザの到着までの間は、パスポートが手元にないので、国際免許の申請に行けなかったので、ようやく行けた。国際免許を初めて見たけど、ただの紙の台紙に写真を貼ったもので、カードみたいのを想像してたから少々意外だった。

      さぁ、いよいよ出発が近づいてきた。
      残る大きい探し物は、家のみだ。家は向こうに行ってから探そうと思っていますが、やはり不安です。いい物件が見つかるかな。

      2013年5月5日日曜日

      ビザ面接

      語学学校からI-20が4月末にようやく到着した。そして、先週、ビザ面接に受けてきた。

      I-20とは、大学から発行される入学許可証で、これがないとビザの申請ができない。また、ビザの申請にはI-20以外にも、学費を支払う財政証明書や身元保証書(もしくは在職証明書)などいろいろ作成しなくてはならない書類が多く、煩雑。

      結構大変そう・・・と思ったのと、、時間がかなりタイトで失敗が許されない状況だったので、ビザ申請代行会社さんにお願いして書類作成の指導や緊急面接の申請などいろいろしていただいた。おかげで、目標としていた出国日になんとか間に合いそう・・・。

      ビザの面接は、入り口でセキュリティチェックを受けたうえで大使館の中に入る。空港のゲートのような感じ。そのあと、待合室でひたすら順番を待つ。おそらく、1時間半くらい待ったと思う。面接と言っても、部屋があるわけではなく、銀行窓口のようなカウンターがいくつも並んでいて、そこに面接官の方がいる。電光掲示板に番号が表示されるので、自分の番号が表示されたら、そのカウンターに行くという感じ。

      面接自体は非常に一般的な質問に回答するだけ。「どうしてアメリカに行くの?」とか「修士号取得後はどうする予定?」など聞かれて、英語で行われた。

      その場で、ビザの発給がOKだということだったので、あとはビザとパスポートが送られてくるのを待つばかり。

      それまで、荷造りなど、粛々と準備を進めよう。


      2013年4月22日月曜日

      ようやくAdmission Letterが到着

      昨日、ようやくAdmission Letterが手元に到着しました。実際に紙でもらうとうれしいものです。
      しかし、嬉しいのも束の間。そこには猪木のビンタ並に気合いの入る一言が。

      ちょっと説明しておくと、USFのAnalyticsは、最初の5週間、BootCampというデータサイエンスを学習するにあたって基本的なことを総復習するモジュールが用意されています。内容は、線形代数、コンピュータサイエンス、ビジネス・経済の各基本です。

      そして、その気合いを入れねばと思わせたのは・・・・もし、これらのクラスを落とすと、その次のモジュールには進めず、また来年チャレンジするようにと!書かれていたことです。

      まだ時間はあるので、今からちょっと準備しとこう。

      2013年4月17日水曜日

      GMATのスコアメイク

      GMATのスコアメイクについて書きたいと思います。ちなみに、私のスコアは690でした。最初が580、次が650、3回目で690でした。目標が680だったので、お金もかかるため3回目でGMATは終了しました。

      行った対策ですが、

      SC
      SCはきっと多くの方が通っていると思われるY.E.Sに行きました。やはり吉井先生の教え方、ポイントはわかりやすいですし、習ったほうが早いと思います。また、Manhattan GMATもやりました。結構ポイントがまとめられていて、良い教材だと思います。

      CR
      CRは、Manhattan GMATをひたすら解きました。また、1タームだけイフにも行きました。

      RC
      これも1タームだけイフに行きました。あとは、Manhattan GMATを3回やり続けました。

      Math
      これもお馴染みのマスアカで教材を買い、問題を解きました。

      あとは、GMAT Reviewで過去問を解いて、間違えた問題を繰り返し解いてといった感じです。おそらく勉強方法は既出だと思います。私が気にしたのは、テスト本番の戦略です。

      GMATの戦略はいろいろなことを言われていますが、おそらく定番は、

      「Mathは全問解く(解ける)、Vervalは間に合わないから10問目までは丁寧に、その後30問目まできっちり解いて、残りはランクリ(ランダムクリックの略)」

      これが定石という意見があります。

      この戦略を実践していましたが、GMATのPrepでやると、500点台後半から600点台前半が出ますし、その変動幅は少なくありません。1回目の本番は、この戦略でやって、580でした。Prepでも見たことがある点数です。

      1回目のテストが終わって、「これで本当に点数があがるのだろうか?」と不安に思い始めました。

      そこで、Vervalについて、Prepを使って、いろんな戦略を試してみました。RCだけは全部解く、最初の10問も凄まじい早さで解く、などなど。しかし、Prepではあまり、良い点数が出ません。

      しかし、いろいろ試しているうちに、唯一、自分の学力を正しく判定していると感じられるある戦略を見つけました。

      それは、「解ける問題を解いて解けない問題は解かない、これを全41問に適応」という戦略です。

      GMATは問題を解いていって、Vervalの最後41問目を解き終わった時点での学力を評価しています。ランクリして簡単な問題を間違えると、コンピュータが「この子はこんな簡単な問題も解けないのか」と思い始めて点数が下方修正されていきます。自分の学力をきちんと判定してもらいたければ、自分の身の丈に合った問題は確実に解いて、難しい問題は解かないで良いということです。しかし、41問目までこのルールを適応しないといけない、と言えます。

      この戦略で本番に臨んだら、2回目は650、3回目で690出ました。Manhattan GMATやGMAT Reviewで解いていた感じからすると、この辺りが自分でも妥当かなと思える点数でした。

      今はGMATのテスト内容が変わっていると聞いています。しかし、点数の付け方が変わっていなければ本質は変わっていないのではないかと思います。参考になれば嬉しいです!

      2013年4月13日土曜日

      TOEFLのスコアメイク

      昨日、今年MBAに行くという大学時代の後輩と飲みまして、TOEFLとGMATをどうやってスコアメイクしたのかみたいな話をしたので、記録に残しておこうかなと。

      自分はTOEFLは90点台で成長が止まってしまい、あまり参考にならない(しないほうがいい?)かもしれませんが、逆にこうすれば90点台は行くという捉え方もあると思いますので、少しだけ触れておきます。

      Reading
      Readingは、とにかく単語の量が勝負ですので、「TOEFLテスト英単語3800」のランク3までをとにかく覚えました。あとはLongman Preparation Course for TOEFLをひたすらやりました。おそらく教材はなんでも良かったと思いますが、練習量に比例してスコアは伸びていきました。あと、「文章を読める」と「問題が解ける」ということは必ずしも一致しないと思います。どう問題を解くかはLongmanなりDeltaなりに書いてあると思いますので、そういうテクニックは必要なのだろうと感じました。

      Listening
      すごーく苦手です。TOEFLのスコアメイク上、最も重要なListeningですが、本当に点数が出ませんでした。一時期は20点も越えなくなり、途方にくれた時期もありましたが、最終的には20点台はコンスタントにとれるようになりました。対策で使ったのは、WEBTOEFLのリスニングコースです。オンラインコースで忙しい時でも受講しやすいし、内容もリスニングが苦手な人でも付いていきやすいです。おすすめです。

      Speaking
      1人で練習するのは難しいですよね。これは一番お金をかけるべきところだと思います。私はDonaldのところに通いました。教え方、戦略がクリアで教わった内容はTOEFLのスピーキングのみならず、面接のときにも役立ったと思います。

      Writing
      Writingも苦しみました。Listeningが苦手なので、Integrated Taskのスコアが不安定であったことが最大の要因でしょう。Independent Taskは、450words 以上、とにかく量を書くようにしました。主張を裏付ける例は、Speaking用で貯めているネタから拝借して書いていました。その場で例を考えると時間がかかりますが、持っているネタからどれを使うかを考えるだけなら、時間を短縮できますし、いつも書いているネタであればミスが少なく、ボリュームも書けます。

      GMATについても書こうと思いましたが、力尽きました。次回にします!

      2013年4月10日水曜日

      予防接種

      今日は予防注射を打ってきました。進学することにしたUSFは、海外からの学生に対して、2回のMMR(麻疹、おたふく、風疹の混合ワクチン)と結核菌の検査を義務付けています。

      生まれた年によるみたいですが、私は麻疹とおたふくは1回ずつ予防接種しているので、それぞれあと1回、風疹はしていないみたいであと2回打たなくてなりません。

      そこで、今日はおととい打ったツベルクリン反応の結果をみせるのと1回目のMMRを打ってきました。注射が大嫌いなので本当に嫌です。

      あと1回打たねばならない風疹は4週間あける必要があるらしくゴールデンウィーク明けにいってきます。5月真ん中に渡米したいので結構ギリギリです。

      留学先を決めたあとは、出来るだけ早く予防接種受けることをお勧めします。

      BigData Analytics Innovation Conferenceを聞きに行きました

      昨日は、日経BP社主催のBigData Analytics Innovation Conferenceを聞きに行ってきました。内容は、「シリコンバレーのデータサイエンティストに学ぶ、海外ビッグデータ活用最前線」ということで、シリコンバレーの起業家をはじめ、日本の第一線の方たちの話を聞けて、とても有意義でした。

      特に印象に残ったのは、アクセンチュアの工藤氏と大阪ガスの河本氏のトークセッションでした。

      第一に、お二人のメッセージで共通していたのは、「分析結果をビジネスにどう役立てるのか、どう運用に落とし込めるかがイメージされていない分析は失敗する」ということです。

      これは当たり前のようで、分析技術に焦点を当てていると、「ビジネス上の課題を解決する」<「技術的に面白いモデル」を追い求めてしまいそうだと自分も思いました。肝に銘じておこうと思います。

      もう一つ、お二人が強調していた「コミュニケーション力」の大切さです。1人で全て技術分野、職能をカバーするのは凄まじく困難であるためチームで課題にあたるのが通常です.。そのため、バックグラウンドの異なるチームメイトとのコミュニケーション、クライアントへ技術的なものをわかりやすく説明する、仮説を聞き出すコミュニケーションと、かなりのコミュニケーション力を求められます。

      今年、留学するUSFでもコミュニケーションの部分は強調されており、実践の場としてPracticum Projectが用意されています。Practicumでは、実際の企業に対して分析サービスを提供するもので、私の場合、社会人経験がありますので、きっちりクライアントの満足を勝ち取りたいものです。

      2013年4月7日日曜日

      語学学校

      修士のコースは決めましたが、やはり本コース前に英語のコミュニケーションに慣れておきたいので、語学学校に行くことにしました。

      急ですが、University of San FranciscoのIntensive English Program(IEP)に行くことにしました。

      5月下旬からなので、準備時間が短いのが気がかりですが、なんとかなるでしょう!


      2013年4月4日木曜日

      進学先を決めました

      進学先を決めました!

      進学先は、University of San FranciscoのMS in Analyticsです。

      決めた理由は、

      【期間】 USFは1年 vs ASUは9か月 → 英語苦手だし、長いほうがいいかな・・

      【内容】  USFはかなりテクニカル vs ASUは今年初めてで情報少ないしBusiness Schoolの中なので、どこまでテクニカルな内容なのかわからない → よりテクニカルであるほうが好きなのでUSFかな

      【コスト】 USFは39,000ドルで12か月 vs ASUは44,000ドルで9か月 → USFは1か月あたりだと安い
      【立地】 SFもTempe(Arizona)も良さそうだけど、シリコンバレーも近いし、SFかな~
      【ビザ】 USFのMS in AnalyticsはSTEMでOPTビザの延長が可能 vs ASUは特に記載なし(聞けば良かったけど、既にこれ以外の内容でUSFかなぁと思ってしまったのでもう聞かなかった)

      と少しアバウトではありますが、比較し、最後は直感でUSFにしました。

      USFのAnalyticsのプログラムは7月からスタートなのですが、その前に語学学校に行きたいので、急いでビザの準備をします。

      ついに完結!出願結果アップデート

      長らくNCSUからの結果を待っておりましたが、今日の朝、アドミッションディレクターからメールが来ていました。


      その結果は、残念ながらDenied!

      現地にインタビューまで行ったので、しかも、インタビューの感触が悪くなかったので、思い入れも強くなっていたので、残念です。


      NCSUのMSAはHBRでも紹介されたり、既にかなり前からあるプログラムなので、最近出てきた他校のプログラムとは持っている実績が違います。そのため、人気があるのは当たり前です。プログラムのHPを見ると、合格率は、去年が35%だったらしいですが、今年は、かなり低くなる見込みだということなので、狭き門です。

      凄まじく残念ですが、こればかりは、仕方ないので、気分を戻していこうと思います。

      UTAは、引き続きin reviewの状態になっていますが、間違いなく落ちているので、実質これで全出願プロセスはおしまいです。

      急いで進学先を決めなくては!



      • NCSU MS in Analytics : Reject(インタビュー後)
      • ASU MS in Business Analytics: Admit
      • USF MS in Analytics: Admit
      • Northwestern MS in Analytics: Reject
      • UTA MS in Business Analytics: 99% Reject

      2013年4月2日火曜日

      戦績のアップデート

      今日は、嬉しいお知らせと悲しいお知らせが同時に来ました。

      • NCSU MS in Analytics : Hold (AdcomのDirectorにメールしてみた。返事くるかな。。。)
      • ASU MS in Business Analytics: Admit
      • USF MS in Analytics: やったAdmit !!
      • Northwestern MS in Analytics: Reject
      • UTA MS in Business Analytics: 12月に出願したきり、引き続き音沙汰なし(絶対Reject・・・)

      うれしいお知らせは、University of San Franciscoからadmitの連絡来ました!!マジで嬉しいです。USFのMS in Analyticsは、かなりテクニカルな内容で、統計解析手法から、マシンラーニング、データベースといった内容からプロジェクトやコミュニケーションスキルのトレーニングもあります。さらに、憧れのシリコンバレーも近いということもプラスです。

      私の場合は、いろいろな企画や事務の経験はありますが、テクノロジー分野はRで統計分析するくらいだったので、USFのテクノロジー寄りな内容は、自分の弱みを補完してくれるという意味で魅力的です。

      唯一の懸念は、知名度ですね。カリフォルニアというと、UCバークレーとか、UCサンフランシスコとか、UC系がやはり有名で、私も、Analyticsのプログラムを調べるまでは、USFのことは知りませんでした。

      しかし、内容は非常に魅力的なので、今日1日考えてみようと思います。

      そして、悲しいお知らせは、NorthwesternからのRejectです。。。オンラインの出願システムをあけてみたら(メールの通知もなし)、残念なお知らせが。やはり有名大学ですし、プログラムの人数も30名程度と聞いていたので、激戦だと思っていましたが、仕方ありません。

      ということで、もう少しで行先が定まりそうです。

      2013年4月1日月曜日

      NCSUに行ったときの様子

      NCSUに面接に行ってきたときにとった写真です。到着した日の翌日、近所を散歩して撮影しました。NCSUの時計台の写真です。


      そして、面接が終了した後に撮影した写真。すがすがしい気持ちがうまく表現されています。
      ちなみに写真の中身は、NCSUのMSAコースが実施されている Institute for Advanced Analyticsが入居しているビル群の様子です(ちょっとわかりにくいですが)。

      ここまでの戦績

      3月も終わりました。。

      今年の桜は早く、散り始めていますが、私にも桜が咲くと良いのですが・・・・

      現在の出願結果というと、

      • NCSU MS in Analytics : Hold (2nd Roundのapplicant poolとの兼ね合いで合否決めるらしい)
      • ASU MS in Business Analytics: Admit !! (良かった!ひとまず安心)
      • USF MS in Analytics: まだ結果こない・・・(メールで聞いたら、あと1~2週間かかるらしい)
      • Northwestern MS in Analytics: 3月末までに結果出すと言ってたけど・・・特に連絡なし
      • UTA MS in Business Analytics: 12月に出願したきり、音沙汰なし(間違いなくReject・・・)

      アリゾナにひとつ桜が咲いていますので、落ち着いて他校の結果を待っています。

      ASUは、W.P.Carey School of Businessというビジネススクールの中にMS-BAのコースがあります。W.P. Careyは日本では無名だと思います(私も出願するまで知りませんでした)が、MBAだと30番くらいらしいです。中でもSupply chainやInformation managementが名物らしく、そんなわけか、MS-BAも結構テクニカルな感じで、Optimization, Applied Regressionのクラスがあり、萌えます。ASUへの志望度は高かったので大変嬉しい結果なのですが、人間の欲は恐ろしいもので、他校からも合格が欲しくなります。。。

      合否待ちの中でも、特に注目はNCSUです。NCSUのMS in Analyticsは、2007年から開始して既に7年の実績があります。また、NCSUのあるローリーは、実際に行ってみたところ、田舎ではありますが、のどかで治安もよく、日本人にはストレスが少なそうな印象を受けました。NCSUはかなり志望度高いので、ぜひ繰り上がってほしいです。さらに、NCSUはプログラムの開始が早く、ビザの手配も心配なので、結論を早く欲しいなぁと思って待っています。

      USFのコースは、プログラムがかなりテクニカル寄りで、これはこれで魅力的です。出願のPrerequisiteも数学とプログラミングの経験を求めていますし、実習はRとPythonで行われるそうです。

      ということで、また、動きがありましたら、アップしていきます!

      インタビューの練習

      もっと上手く準備している人はいるはずですので、参考程度に見てくれればと思いますが、MS in Business Analytics/Analyticsで、インタビューで聞かれる内容は、Why Analytics? Why this school? Why now、チームプレイの経験といったMBAでもお馴染みのものだけでなく、技術系の質問もありますので、MBAのインタビューの練習に加えて、もう少し準備をしたほうが良いかと思います。

      まず、オーソドックスな質問は準備しやすいし、各エッセイカウンセラーの方たちにストラテジーの蓄積があるので、省略します。私の場合は、FECに通っていたので、そこでインタビューの練習もしてもらいました。そこでの練習があって、オーソドックス系の質問は、落ち着いて対処できたと思います。

      問題は知識を問う質問です。これは、練習しようと思っても、なかなか良い相手が見つかりませんでした。実は、University of San Franciscoの面接で、Thank you メールのフィードバックで、「英語の発音はちょっと癖あるね」と言われました。面接中も、Longitudinal  Analysisと言おうとして、2回言っても聞き取ってもらえず、mixed linear model(混合モデル)と言ったらわかってもらえました。。。

      面接終了後、やっぱり、専門用語は音節も長いし、発音しにくいので、練習しないとまずいと思いました。そこでまずはじめに、大学時代に使った英語の統計学の教科書を引っ張り出して、ぱーっとななめ読みして、発音に自信のない専門用語リストを作りました。

      そして、次に発音を聞いて直してくれるところを探そうと思ったのですが、これがかなり難しく。。。オンラインの英会話学校をいくつか探したのですが、まず大学院面接に対応しているところが少ないのに加え、さらに理系の専門用語を聞いて発音を直せる人は当校にはいませんと言われ。。。オンライン系の英会話学校では、練習できるところを探すことができませんでした。

      最終的にどうしたかというと、、FECでたまたまThom先生が不在で別の先生に最後教わったのですが、経済学出身ということで、発音に自信のない専門用語リストを作って、1つずつ丁寧に発音してもらって録音して帰りました。録音した発音を聞きながら、毎日練習して次の面接に臨むようにしました。

      現地に行ったNCSUでも、やっぱり英語は癖あるねと言われましたけども、知識を問う質問は自信を持って答えられましたし、専門用語のボキャブラリーは問題ないと言われましたので、準備する価値はあるかなと思います。

      2013年3月31日日曜日

      出願してから

      出願してからインタビューに呼ばれるまで、楽しみな反面、フラストレーションが溜まる時期です。

      まず出願が完了すると、出願システム上でステイタスが見ることができます。例えば、成績証明書を郵送したものの、スキャンしたものをアップロードしているだけなら、「Transcript (Unofficial)」みたいな感じです。

      これが、送ったはずなのに、なかなかステイタスが変わらないと、イライラしてしまいます。もちろん、物理的に届いているはずなので、イライラしてもしょうがないのですが、郵送物のステイタスが「提出済み」にならないと、出願ステイタス上、「出願完了」と表示されないわけで、これがまた、「未完了」状態が長いと不安になるものです。

      私のケースで、確認しておいてよかったと思ったのは、Northwesternの出願時です。Northwesternは、成績証明書をスキャンしてメールで送るという手順になっていました。なので、素直にそうしたら、何日も経っても「未受領」となっていて、最初は忙しいのかと思っていたのですが、それから数日経っても状況は変わらず・・・。メールで送ったのに「未受領」のままになっているから確認して!ってメールしたら、「成績証明書のファイルサイズが大きすぎて、アドミッションで管理している出願者システムにアップロードできない。再度サイズを小さくして送ってほしい」と・・・。ちゃんと聞いてみるもんですね。

      もう1つ、危ないケースが、Arizona Stateでありました。2月1日がPriority deadlineで、そこに向けて成績証明書を1月25日にEMSで発送しました。ホームページで見ると、4日で着くとなっていたので安心していたのですが、トラッキングしてみると、待てど暮らせど、LAで「税関手続き中」で数日止まっている。。。さすがに2月1日に間に合わないと思い、1月31日にDHLで成績証明書を送り直しました。費用はだいぶ高いですが、こちらは民間会社です。いい感じに、2月1日に着きました。結局、先にEMSで送った成績証明書も数時間差で到着したようですが、冷や冷やものです。

      準備は念入りに早めにやったほうが良いですね。

      出願準備④ TOEFL, GMAT, Transcript

      さて、出願準備の最後に、TOEFL, GMAT, Transcriptについて触れておきます。

      TOEFLとGMATは、それぞれETSとPearsonにオンラインで申し込んで、出願先に送ってもらいます。GMATはスコアレポートといっても紙で送っているわけではなく、メールでスコアが見れるリンク先を出願先に送っているだけのようです。なので、申し込んでから届くまで数日でやってくれます。

      今回、結構ひやひやしたのがTOEFLです。TOEFLはオンラインで依頼してから紙で出願先に届けられます。早いと、1週間くらいで出願先に届いていましたが、遅いと2週間くらいかかっていました。出願先によるらしいのですが、余裕を持って申し込んだほうが良いでしょう。

      私の場合は、North Carolina State University(NCSU)の出願締め切りより1日遅れてしまったことがありました。事前にAdmission Directorにメールして「1日くらい遅れるかも、、、」とメールしておいたら、「大丈夫、ちゃんと受け取ります」と返事をもらえていたのですが、それでもヒヤヒヤしました。

      Transcriptは、学校によって取扱いがバラバラです。ある学校は、「スキャンした状態で出願システムにアップロードせよ、かつオフィシャルなものを郵送せよ」、別の学校は「スキャンしたものをアップロードするだけでよし!郵送では合格するまで送るな!」といった感じです。ちなみに、スキャンが曲者で、「解像度は読めるように!かつ、ファイルサイズが1MBまで」という条件を満たすのが、なかなか難しかったです。

      コツは、カラーだとファイルサイズが大きくなるので、1度、コピー機で白黒にして、PDFにするとサイズが小さくなります。

      そんなこんなで、一通り、出願パッケージを揃えたら、最終確認して、あとは送信するだけです。
      出願システムは、送信するときに、審査料的なものを支払うページが出て、支払処理をすれば、めでたく出願完了です。あとは、成績証明書など郵送するものは忘れずに、送りましょう!

      出願準備③ 推薦状

      MBAや他のMSプログラムと同様、指導教官や上司からの推薦状が必要です。私の場合、会社の上司、前職の上司などから書いてもらいました。いわゆる、Professional Referenceです。

      一方、プログラムによっては明確にAcademic Reference(大学時代の指導教官など)を1通ないし2通としているところがあります。例えば、University of Texas at Austinは、Academic Referenceを2通が望ましいとしてあったので、さすがに2通はきついと思い、アドミッションにメールで、「職歴も長いので、Professional Referenceではだめか?」と聞いたところ、「学業面での評価を知りたいので、Academic Referenceが欲しい」ということでした。

      推薦状は書いてもらわなければいけない一方、レジュメやエッセイとの整合性も重要であるため、レジュメとエッセイで大筋が固まったら、推薦状を書いてもらいたい人に連絡を取ったほうが良いかと思います(断られる可能性があります)。

      また、私の出願した学校では、出願システムに推薦状を書いてもらう人のメールを入力し、ボタンを押すと、その人のところに推薦状の依頼が大学からメールされるようになっていました。パソコンに不慣れな人だと、少々面倒くさいと感じるかもしれませんので、その旨断っておいたほうが良いと思います。

      出願準備② エッセイ


      私が出願した学校の多くは、エッセイ課題は1つです。いわゆる、Statement of Purpose(SoP)、「なんでうちの学校のこのコースに出願したの?」という問いに答えるものです。長さはページ1枚としているものから、2-3枚でOK、200 words, 500 wordsなど様々でした。

      出願した先で最も難しかったのが、University of Texas at Austinの200ワードです。超短いです。かなりシンプル、ストレートに書く必要があります。

      また、Arizona State Universityはエッセイが2題あります。1つは、「Why Now? Why this school?」で、もう1つは「強み/弱み」的なエッセイです。

      私は、Northwesternから準備して、それを他の学校に転用していきました。一部例外を除いて、基本的に聞かれていることは「うちの学校のこのコースに出願したの?」のひとつなので、応用するのは基本的に楽です。ちなみに、Northwesternは、小題3つ、すべてつなげるとひとつのストーリーになるようなエッセイで全部で500 words(A4 1枚)で書くという課題でした。

      長さを伸ばすのは、「このクラスが特に興味あります」「プロジェクトのこういう部分が興味あります」など付け加えていき、難しくないのですが、難しいのは削るほうです。

      これはエッセイカウンセラーと相談したほうが良いと思います。私は、FECの木下先生のところに通っていましたので、FECのThom先生にスペルチェックから表現、構成を何度も見てもらい修正しました。

      たとえ1題でも、最初のエッセイを書き終わるまで、結構時間かかりました。1st ドラフトを書くまでは約2週間でしたが、その後の修正に2か月くらいかかりました。実際に書いてみて、文章を客観的に読むと、「もう少し具体的に書いたほうがいいかな」とか「ここの部分を一言で、わかりやすく表現したい」というように修正したい箇所がどんどん出てきます。それを直しては文字数を数えて、削って、直してを繰り返すと、それなりに時間がかかりました。

      あと、アドミッションの方は、レジュメも読んでくれるので、レジュメを読んでわかる職歴などをくどくど書く必要はなく、エッセンスだけで十分のようです。

      出願準備① レジュメ

      今回は出願の準備について書きたいと思います。
      全ての学校で、オンラインの出願システム管理みたいなものがありますので、まず、それに登録します。そこに名前、住所、学歴、職歴などを入力していきます。そして、本題に入ります。

      まず、最も重要だと言われるCV/Resumeの作成です。
      私は、学校ごとの入学者の平均年齢、職歴の長さ、バックグラウンドなどを調べて、何が差別化要因になって、懸念事項とされるかを考えました。

      私の場合、学位が商学部(Bachelor of Commerce and Management)ですが、出願者の多くは統計学、コンピュータサイエンス、経済学など、パッとみて理数系な感じが多かったので、「そもそもコイツは数学とか統計できんの?」と思われる可能性大でした。

      そこで、ゼミがStatistics/Data Miningであること、統計学やデータサイエンスのスキルをキャリアの中で使ってきたことをアピールするように意識しました。

      次は、出願パッケージの中でも最も重要なエッセイについて書きたいと思います。


      出願先の選び方

      MS in Analytics/Business Analyticsで留学しようとしたときに、最初に困ったのが出願先のポートフォリオです。これから出願を考えられている方に、いくつかリンクをシェアしておきます。

      網羅的なリスト


      この2つのリストは、探した限り、かなり網羅的にAnalyticsのMaster programをリストアップしているものだと思います(後者のTop 20の根拠はわかりません・・・が、最後に、Top20以外のプログラムもリストアップされてますので、網羅性はそこそこあると思います)。

      Googleとこのリストを頼りにひたすら1校1校調べていきました。そのときに、私が出願先候補として選んだのは以下の条件にあてはまるものプログラムです。

      • GMATでの出願がOKか?(MBAで準備していたので、GMATのスコアはあったのですが、今さらGREをやる気になれませんでした)
      • TOEFLのスコアが要求スコアを満たしているか?
      • Analyticsを中心にしているプログラムか?(中にはビジネスの知識が中心でデータ分析がおまけ程度についているものも、このリストに入り込んでいたので、個人でよくプログラムの内容を見極める必要があります)
      • 期間が短いか?(家族を日本に残していくので、できれば1年程度
      • Prerequisitを満たせるか?(プログラムによりますが、学部で統計学・確率のコースを受講しているか、コンピュータサイエンスの最低限の知識があるかなどを証明しないといけないプログラムがあります)
      この観点から、最終的には、以下を出願先として、選びました。
      • North Carolina State University MS in Analytics
      • Northwestern University MS in Analytics
      • University of Texas at Austin MS in Business Analytics
      • Arizona State University MS in Buisness Analytics
      • University of San Francisco MS in Analytics
      どれも、ビジネスよりはコンピューターや解析技術を中心としたプログラムで、上記の条件をクリアしていました。

      次回は出願した後について、書きたいと思います。

      MBAではなくMSBA②


      前の記事でも紹介しましたが、新規事業の立ち上げに将来関与したいと思い、MBAへの出願準備を始めましたが、エッセイを書いているときにMBAでいいのか??と迷ってしましました。

      そんな時に、前職の先輩から新規事業の立ち上げを一緒にやらないかというお誘いをいただきました。留学までの時間、新規事業の立ち上げに関与することで、エッセイを書いていた時に感じられなかったリアリティを感じられるのではという期待もあり、引き受けることにしました。

      そして、この経験が自分にとって大きなターニングポイントでした。

      その新規事業は、センサで集めたデータを分析するものでした。そのサービス開発に携わる中で、昔勉強した統計学の知識を使って、データの分析、ソフトウェアの中で使用する統計モデルなどを作っていきました。その経験から、データサイエンスの力は自分にはまだまだ不足していることも感じる一方、データ分析で使う難しい言葉を簡単に翻訳し、チームで共有プロジェクトを進めていくデータ分析とビジネスの「架け橋」のような役割をとても楽しいと感じました。

      そして留学するなら、やはりデータサイエンス関連で腕を磨きたいと思うようになりました。

      そんなときに、たまたまGoogleで引っかかったのが、Northwestern UniversityのMS in Analytics(MSA)でした。このNorthwesternのMSAは、SAS, SPSS, Rなどの統計パッケージを使用して、さらに企業からの受託するプロジェクトも行うということで、プログラムを見ても統計学、データマイニングの技法、組織論など私が望んでいたものがひとまとまりになっています!

      さらに、調べると、多くはないですが、類似のプログラムがアメリカにあることがわかりました。これで、留学のターゲットがMBAから、MS in Analytics/Business Analyticsに変更する決心が着きました。

      次回から、出願のときに考えていたことを書いていきます。

      MBAではなくMSBA①

      このブログでは、Business AnalyticsやAnalyticsの分野の修士で留学すると決めてから、出願準備、出願中、留学中の様子(筆まめではないので、どのくらい続くかわからないけど)を書いていこうと思っています。この分野での留学は日本人は少ないようで、「ちょっと行ってみたいな」と思った人へ少しでも役に立てばと思って始めます。

      そもそも、私が留学したいなぁと漠然と思い始めたのは、大学生のときです。商学部の中でかなり珍しい、データサイエンスのゼミに入って、それに夢中で大学生の後半を過ごしました。その頃から、日本に統計学部はないので、いつかアメリカで統計学の勉強を本格的にしたいなと思っていました。

      その後社会人になり、統計学からは離れていきました。外資系企業で経理、マーケティング、コンサルティングなどいろいろな仕事をやらせてもらっていくうちに、今までやってきたことを組み合わせて海外も視野に入れた新規事業の立ち上げをやってみたいと思うようになりました。そして、MBAに興味を持ち始めました。

      そこから、本格的に準備し始めました。今から5年前、2008年頃のことです。TOEFL, GMATと3年くらいかけて準備して、さぁエッセイの準備をし始めたときに、リーダーシップを発揮した経験やら、今後のキャリアビジョンやら書き始めますが、どうもリアリティに欠けると思ってしまい、本当にMBAでいいのか??本当にやりたいことなのかと自分でもわからなくなってしまいました。

      そんなときに、大きなターニングポイントが訪れます。