データ分析エンジニア


応募資格GMO インターネットグループが持つたくさんの事業のビッグデータに対し、大規模分散処理や機械学習モデルをプログラミングし、多くの課題をデータから解決に導くことができる方

フィンテック、アドテクといった担当する領域のビジネスを学び、Spark (PySpark) や Hive などの Hadoop 関連技術に精通し、データサイエンスで成果にコミットメントする仕事です。 世界 No.1 規模の金融データも扱っています。

【必須の経験・スキル(どれか一つ)】

以下を満たし、数理的なバックボーンを持ちプログラミングに強い方

  1. 大学・大学院・専門高校・研究機関などで統計解析や機械学習を学んだことがある方
  2. Java や Python などによる業務開発経験

【歓迎する経験・スキル】
  • Python や Spark などを用いた機械学習の実践経験
  • SQL や HiveQL を使ったビッグデータの抽出・加工
  • Hadoop 関連技術のスキル
応募方法エントリーには、履歴書 (書式自由、pdf 形式、サンプル) および職務経歴書 (書式自由、pdf 形式、サンプル) が必要です。

エントリー

入社後のチャレンジ
  1. 世界 No.1 規模の金融サービスの生データを格納するデータ解析基盤で解析モデルを使った収益改善や、アドテクサービスのレコメンドエンジンおよび配信ロジックの改善などを行って頂きます。
  2. 主要な統計解析手法や機械学習を身につけ、Hadoop 関連技術 (特に Python と Spark) に精通して、データサイエンスの主に実装面をリードして頂きます。
    • 新しい技術に常にチャレンジし、スキルアップしながら経験と実績を積んで頂きます。
    • 実績に応じて、データサイエンスで解決すべきビジネス課題を裁量権をもってお任せします。
    • エンジニアリングのスキルアップのため、データベース設計・構築や Web アプリケーション開発など別の専門業務にチャレンジして頂くこともあります。
  3. 能力に応じて、データサイエンスを応用した新製品や解決提案の取りまとめを担当して頂きます。
    • データ解析のスペシャリストだけでなく、プロジェクトマネージャとしてのキャリアにチャレンジするパスもあります。
  4. 四半期ごとに実績と成長について評価をフィードバック、スピード感をもって様々な課題にチャレンジして頂きます。
勤務地東京都渋谷区桜丘町26-1 セルリアンタワー(本社)

◆交通 : JR・各線 渋谷駅南口徒歩5分
◆地図 : http://www.gmo.jp/company-profile/outline/
勤務時間10:00~19:00(休憩1時間、実労働時間8時間)
※業務状況により残業有
給与■年収 ※経験・能力等を考慮し、当社規定にて優遇します。
■通勤手当
■昇降給年4回(1月・4月・7月・10月)

エントリー