orizuru

つながる.見える.わかる IoTソリュ-ション

main_contents

更新情報

工場(製造現場)向けIoTソリューション

自社のIoTシステムを利用した工場(製造業)向けソリューション「Orizuru」は、工場内の各種設備からデータを収集する「ゲートウェイ」、収集したデータ処理をする「データプラットフォーム」、リアルタイムにデータを見える化する「ダッシュボード」、3D CADデータをブラウザ上で表示する「3Dビュー」などの各システムを備えるトータルソリューションになります。

IoTソリューション「Orizuru」では、これらの各ソリューションの個別提供から、「ゲートウェイ」「データプラットフォーム」「ダッシュボード」をパッケージングした「Orizuru IoT」の提供をしております。また、3Dデータをクラウドで管理、表示、検索できる機能を備えた「Orizuru 3D」の提供もしております。

IoTソリューション全体像

IoTソリューション全体像

  • 設備のデータ収集
  • 設備の制御
  • 他のシステムへのデータ連携
  • サーバとのデータ送受信
  • リアルタイム通信
  • リアルタイム検知・通知
  • データの統計処理と機械学習
  • データ保存先選択
  • 各種データのグラフ化
  • 設備ごとの見える化
  • 設備のコントロール
  • ユーザ管理
  • 3Dデータの各種表示
  • 3Dデータの360°ビュー
  • 大容量データの表示

IoTソリューション「Orizuru」の特長

様々な設備のデータ収集
工作機械で使用するCNCやPLC、産業用ロボット、温度や振動などのセンサーなどのデバイスから各種データを収集することが可能です。様々なデバイスからデータを集約して収集できることで、管理メリットが生まれます。
データの他システムへの連携
昨今様々なwebサービスがありますが、それらの各種webサービスへのデータ連携が可能です。例えば、見える化のwebサービスやBIツールなどへのデータ連携、それ以外にも社内システムへ連携することができます。
データの一元管理
Gateway(ゲートウェイ)から送られてくる様々なデータを一元管理します。様々なソリューションやサービスを使うことによるデータ管理コストを抑えられ、御社の貴重なデータ資産を管理します。
AI、機械学習によるデータ活用
解析したデータを活用し、不良品の検知や製品需要予測、設備異常の検知、製品の故障予測などに繋げることができます。お客様の課題にあわせて必要なデータを取得することから始めていきます。
自動化、予兆保全の実現
AI・機械学習により予測や異常検知できたことをキーとして、次のアクション、すなわち自動化や予兆保全を実現することが可能です。データ活用としてコスト削減や品質改善などを実現します。
各種データのグラフ化
データを目的に応じて表示を変えることが可能です。時系列データーであれば折れ線グラフ、累積データであれば円グラフや棒グラフなどの形式で表示でき、データの取得間隔を狭めることで、リアルタイムデータでの表示も可能です。
巨大な3Dデータをwebで表示
数十GBに及ぶ巨大な3Dデータもスムーズにレンダリングして表示することができます。また、専用ソフトを必要とせず、様々な形式のデータをWebブラウザやスマートフォンで確認することが可能です。
3Dデータの検索
管理しているデータから類似する3Dデータを検索できます。データ形式を問わず、異なる3Dデータを横断して検索可能です。3Dデータ作成前に類似データを確認することで、設計の二度手間を防ぐことができます。
点群データを扱える
CADデータだけでなく、点群データも管理できます。従来は別々に管理していたデータを結合することで、複数のソフトウェアを立ち上げてデータを検索しなければならないといった手間がなくなります。

Orizuru IoT

工場IoT

Orizuru IoTは設備を制御しているCNCやPLC、ロボット、各種センサーとゲートウェイが通信することでリアルタイムにデータを取得、蓄積していくことが可能です。 Orizuru IoTは、マルチデバイス対応ができる国内唯一のソフトウェアです。多くのお客様が実現したいと考えられている、工場、ライン、設備単体の稼働監視や故障原因の特定も、Orizuru IoTでデータを取得することで可能になります。ゼロベースからIoTシステムの開発をすると大規模投資が必要になります。Orizuru IoTならば短時間で設備との通信を確立させることが可能です。 Orizuru IoTによって工場のスマート化を実現させてください。

「Orizuru IoT」の詳細はこちら

Orizuru 3D

3Dデータのweb表示

Orizuru 3DはCAD・点群などの3Dデータを統合管理するソフトウェアです。これまで扱えなかった数十GBに及ぶ容量の巨大な3DデータをWebブラウザで表示できます。それぞれのデータ形式ごとの専用のソフトウェアを使う必要はありません。また、類似する他の3Dデータを、データ形式を問わず横断的に検索できます。クラウドサービスとして提供しているだけでなく、セキュリティや通信速度などのご要望に応じてオンプレミス環境で社内ツールとしてもご利用いただけます。​

「Orizuru 3D」の詳細はこちら

IoTソリューション紹介動画

IoTのお悩み解決

 お客様からIoTに関する様々なお悩みをご相談いただいております。IoTの導入に関することやデータの取得方法、取得したデータの活用方法や見える化など多岐にわたります。このようなお悩みごとに対して弊社としてもなんとか解決したく、日々ご提案をしています。こちらでは、その内容の一部をご紹介します。

パートナー・会員

三菱電機のe-F@ctoryパートナー

e-F@ctory Allianceとは、弊社FA機器との接続親和性の良いソフトウェア・機器を提供するパートナーとそれらを活用しシステムを構築するシステムインテグレーションパートナーとの強力な連携により、お客様に最適なソリューションを提供するためのFAパートナープログラムです。

  • e-F@ctory Allianceの詳細は、こちら をご覧ください。

e-F@ctory Alliance

Aras社の公認パートナー

Aras Innovator®は米国Aras社が開発・提供している、ライセンスフリーのエンタープライズPLM(Production Lifecycle Management)ソリューションです。製品の企画・設計から生産・保守までの製品ライフサイクル全体の管理が行えます。

  • Aras Innovatorの詳細は、Aras PLMソフトウェア をご覧ください。
  • Aras®およびAras Innovator®は、Aras Corporationの登録商標または商標です。

Aras AUTHORIZED Partner 2017

BECKHOFF社の開発パートナー

2018年よりベッコフオートメーション株式会社 の開発パートナーとして、弊社はソフトウエアの開発をサポートさせていただいております。BECKHOFF社製品とソフトウエアとのコミュニケーションを円滑にできる技術支援などを行わせていただいてます。

BECKHOFF

ORiN協議会の会員

ORiN (Open Resource interface for the Network)とは,メーカ・機種の違いを超え、統一的なアクセス手段と表現方法を提供する通信インターフェースです。ロボット、PLC、NC工作機械などの制御装置の情報にアクセスするための標準仕様であり、ORiN2SDKとして実用化されています。

ORiN協議会

AWSパートナーネットワーク(APN)

弊社はAPNコンサルティングパートナーとして、AWS上での顧客のワークロードとアプリケーションの設計、開発、構築、移行、および管理を支援することが可能です。AWSのシステムインテグレーションやアプリケーション開発などご相談いただけます。

AWSパートナーネットワーク(APN)

美容院業界のトップ「Ocean Tokyo」を見て思うこと

美容院業界のトップ「Ocean Tokyo」を見て思うこと

こんにちは!
採用担当の池田です。

20卒の新卒選考もガンガン始まっていますが、応募者の履歴書を見ると、
令和2年 〇〇大学卒業見込み
と書かれているのを見ることが多くなりました。

まだまだ新しい元号に違和感を覚えますね(笑)

個人的には非常に良い元号だなと思っており、令和という響きが非常に良いですよね。日本っぽいと言われればそれまでですが、落ち着きがある一方上品さを兼ね備えている印象を受けるので、良い時代になれば良いなーっと入社式に参加しながら思っておりました(笑)

少し話が逸れますが、履歴書を手書きで書いてくる就活生がいらっしゃいますが、弊社の場合は本当にWEB上の記載でOKです。

おそらくどこかの大企業の人事が「手書きで書いた方が、より熱意が伝わりやすい」みたいなことを言っているからだと思いますが、令和時代にそんなことを本気で思っている人事はオワコンでしょう。

もちろん印象が良くなることはありますよ。ただ結局その後の面接が全てなので、手書きで書いたからと言って合否に関係することはほぼ無いです。なので100点満点で0.5点ぐらい加算されるイメージでしょうか。ただ0.5点のために30分~1時間かけてしまう方は弊社に合わないかもしれません(笑)

というより、汚い字で書かれると本当に読むのが面倒なので、むしろWEBで書いてくることを必須にしたいぐらいですね。

「最近の若者は~」という枕詞を付けたい気持ちを抑えつつ、字があまりに汚い方も結構いるので、もし自分の字に自信がない方は間違いなくWEBで記載したほうが良いです。

また大学生協で履歴書を売っていることが根本の原因だと思うので、一切廃止にしましょう。それによって手書き履歴書がなくなれば、相当な工数削減になるはずです。

さて今回は私が最近気になっている美容院を切り口にお伝えしていきます。

美容院のトップはどんなところ?

私の数少ない趣味の1つに、「髪を切るYouTube動画を見ること」があります。上手く説明できないんですけど、人の髪が切られていく動画って見ていて飽きないんですよね(笑)

私は若者の部類ではないので昨今の流行は全く分からないのですが、動画を見ていく中で、どうやら美容院業界で圧倒的ナンバーワンを誇る美容院があることが分かりました。

Ocean Tokyo

皆さんはご存知ですか?美容院のナンバーワンって自称だったり、基準が曖昧だったりするので信用ならないと思う方もいるかもしれませんが、実はNHKの「プロフェッショナル仕事の流儀」にも特集されたことがあるので、結構本当っぽいですよね。

少し私の学生時代の話を挟む形になってしまい申し訳ないのですが、私の中高時代はそれなりに髪型にこだわっていました(笑)校則が厳しかったので都内に通うおしゃれな学生とは次元が違いますが、それなりの中二病を発していた私だったので、それなりに異性の目を気にして、ヘアカタログを大量に買って、その切り抜きを持って美容院に行くものの、緊張し過ぎて結局切り抜きを渡せずに、
まぁ適当に整える感じで
みたいなオーダーをして、後悔するというループを繰り返していました(笑)

髪型は究極の自己満足だと思うので、当時は1ミリ単位で髪の長さを気にしていましたね。誰も私の髪なんて気にしていないのに、毎日襟足の長さを気にしていましたから(笑)

また高校受験時に髪型に関しては苦い思い出があるのですが、高校を推薦で受けられることになったので、学校や親から髪を短く切れと強く言われていたんですよね。部活を引退した中3の夏頃から髪を伸ばし始めていた私にとっては非常に嫌だったんですよ。高校入学式で披露する髪型に向けて準備していたのに、なぜ短髪にしなければいけないのだと。

でも結局は中二病を発しているただのチキンだったので、周りのアドバイスに背くことなく髪を切ることに。その際にちょうど都内に展開している有名な美容院が近所にオープンしたので、良い機会だと思いその美容院で切ることにしたんですよ。

しかしそれが悲劇の始まりでした。。。。

お店に着くと、若いイケメン美容師の方が私の担当して来たのですが、定番の、
どんな感じにする?
と聞かれたので、
高校受験の推薦を受けるので、髪を短くしたいです。。。あっ!でもそこまで短くしたいわけでは無く~ごにょごにょ~
と伝えたんです。

これが私の人生で最大の失敗でした。

高校受験の推薦を受ける
というワードを伝えてしまったことで、美容師の頭の中では、

  • おそらく親から切りに行くよう言われたのだろう
  • 本人はあまり短くしたくないと言っているが、人生が掛かっているので、親の要望としては誰が見ても短く爽やかな髪型にしてくることだろう
  • もし長めに切ったらクレームが来るかもしれないし、オープン当初でそういう揉め事は嫌だからちゃんと短く切ろう

となっちゃったんでしょう。。。

結果として、出川哲朗さんのような髪型になってしまいました。。。

カット終了後に美容師からの「どう?」と言われたことに対して、120%の苦笑いで答えるのが精一杯の抗議でした。

その後意識が朦朧としながらも、仲の良い友人の家に駆け込み、
ぶっちゃけ、俺の髪型どう?
と問いかけると、爆笑しながらの
やばいね
という言葉でダウンしました。。。

自宅に到着した後も、なぜか親に八つ当たりし部屋に引きこもり、来週からの学校生活をどうしようかと中学生なりに真剣に悩み、夜中の3時過ぎまで考え込んだ結果、
そうだ、坊主にしよう
との決断に。

今思えば馬鹿な判断なのですが、中途半端な髪型にするより潔く坊主にした方が良いかなと。全く訳が分からない判断ですが、友人に坊主頭でかっこいい人がいたので、自分も勝手にそうなると思い込んでいたのでしょう。

  • 頭が大きい
  • 後頭部絶壁
  • ハチが張っている

という典型的に坊主に向いていないタイプにも関わらず。。。

これが人生初めての坊主頭にした経験でした(笑)
※ちなみに推薦入試は不合格になっております。。。

非常に話が逸れましたが、髪ってかなりセンシティブな部位で、それを担う美容師の方って非常にプレッシャーを感じる仕事だと思うんですよ。

その世界においてトップになるのは並大抵の努力では到達できないと思うので、「プロフェッショナル仕事の流儀」でOcean Tokyoを見てからはすっかりファンになり、YouTube動画でも日々閲覧するようになりました(笑)

美容師の就活事情は?

いわゆる一般企業の就活であればそれなりに知っているのですが、美容師の世界の就活って全く未知なんですよね。ただ私の知れる範囲(通っている美容師の方へのヒアリング&YouTube動画)だと一般企業の就活と概ね似ているようです。

①就活の流れは事業会社と同じ

主に美容専門学生がメインだと思いますが、就活時期になると各美容院の方が専門学校に来て説明会を開催したり、行きたい美容院があれば個別にアプローチしてエントリーするようです。
また選考方法は書類審査や面接がメインのようなので、至って事業会社の流れと変わらないようですね。

ただ“美容院研究”(企業研究)という観点においては、間違いなくその美容院に客として通い詰めることはマストのようですね。事業会社の企業研究って、説明会やインターンに行っても実際のリアルな仕事現場に携わることってあまり出来ないじゃないですか。だからこそ入社後にギャップが生まれる。でも美容院研究の場合は自身が客として何度も通っているので、所属する美容師の人柄や職場の雰囲気、技術のこだわり等についてもしっかり見ることが出来ますよね。そういった意味では事業会社の企業研究よりもよっぽど意味のあることだなと思っております。

②人気就職ランキングは美容院業界にも存在する

Ocean Tokyoはもちろんですが、原宿や青山に点在する人気美容院は相当な倍率らしく、内定するのも一苦労のようですね。

美容専門学校内で
Ocean Tokyoに内定した!
というのは、
三菱商事に内定した!
と同じ感じの盛り上がりになるのでしょうか(笑)

ただ、美容師の世界は一般企業の会社員に比べて、より個の能力が求められるような気がするので、有名な美容院出身であることは重要な要素なのかもしれませんね。
雑誌にも載りやすいでしょうし、今の時代はSNSで広まるので、地方の無名美容院に身を置くよりは今後の活動を考えると圧倒的に理があることでしょう。

ちなみにOcean Tokyoは非常に人気が殺到するとのことですが、その中で多くの面接をする際に合否のポイントになるのは、「目」とのこと。

いわゆる目力とのことだと思うのですが、自分がやりたいこと、成し遂げたいこと、夢、想い等をしっかり持っている人間は必ず目が光っていると。

内容の真意は分からないのですが、弊社の面接においてもそれは盲目的に意識しているかもしれないなと思いました。

明らかに目が輝いていない方って意外に多いんですよね。

  • 今の仕事が激務過ぎて、とにかくワークライフバランスの良い企業へ行きたい(逃げたいという表現が適切かもしれません)
  • 大手企業の滑り止めとして、面接練習にもなるからとりあえず受けてみるか

上記のタイプの方は、口では色々綺麗なことを言っても、どうも面接自体が盛り上がらないんですよね。それはおそらくポジティブではないから。

勝手な推測になってしまいましたが、夢を売る仕事の美容師であれば、目先のスキルや才能なんかよりもそのようなパッションをより重視するのでしょうね。

③ほとんどの美容院は採用に困っている(売り手市場)

全国にある美容院の数ってご存知でしょうか?

フェルミ推定で解いてみましょう!

っと言っても今回は本題が違うので、先に答えを言ってしまいます(笑)

約25万店舗

ピンとこないかもしれませんが、信号機の数より多いみたいですね。やばくないですか???

Ocean Tokyoのように超人気であれば別でしょうが、それ以外の美容院、例えば地方にあるところは本当に困っているようです。

そのため元々低かったアシスタントの給与も全体として少しずつ上がっているようなんですよね。ただそれでも全然集まらない美容院が多く、結局スケールしない美容院がほとんどとのこと。

正直、労働集約型の典型的な仕事でもあるので、給与を上げようにも中々難しいのも分かりますし、1000円カットの流行でお客様の取り合いも起きていることで、生き残りは熾烈のようです。

一流の美容師を輩出する育成システムとは?

今回はいつもの趣旨と異なって完全に趣味に寄った内容になってしまいましたね(笑)ここで少し人事っぽいテーマにしましょう。

圧倒的に個の力が求められる美容院業界でナンバーワンを誇るOcean Tokyo。毎年多くの人気美容師を輩出しておりますが、その根本であろう育成制度について軽く触れさせて下さい。

ただ始めに断っておくと、Ocean Tokyoについてはテレビ(プロフェッショナル仕事の流儀)やYouTube動画でしか知らないので、全貌は知りません。ただ日頃動画等を見る中で、勝手に自分が解釈した「育成システム」について触れたいと思います。

原則ですが特別何か手取り足取り教えていることはないようです。勝手に学んで勝手に練習して技術習得するのが通例のようですね。

Ocean Tokyoの代表である高木琢也さんという方のカット動画がYouTubeで配信されていたのですが、その周りで多くのアシスタントの方がノートを持って食い入るようにカットの様子を見ていました。
※おそらく講習会も兼ねているのだと思います

見た目は非常にチャラそうで近寄りがたいなと思う方もいる中で、皆さん少しでも技術を盗もうと真剣に見ている様子が印象的だったんですよね。

ただでさえ忙しい美容院なので、業務前や業務後、休みの日に先輩美容師が細かく指導する時間がしっかり設けられているのかと思っていましたが、そんな手厚いことはしていないように見えました。

アシスタント時代は大半の時間を美容師の方のサポートに徹するので、受付からシャンプー、ドライヤーからマッサージまでを全てしっかり対応できるようにし、一方それらの対応をしながら先輩美容師の方の技を横目で見ながら盗める技術は盗む。そして業務後の夜遅い時間帯や業務前の朝早い時間帯でひたすら試して練習するようですね。

つまりOcean Tokyo側が一から十まで全て提供するわけでは無く、優秀な美容師と練習できる環境が提供されている中で、自分で考えて行動しなさい、ということですよね。

ただこれこそ、理想的だと個人的にも考えております。

新卒の説明会だと、

  • 御社は何を私にやってくれるんですか
  • どんな育成プログラムを用意しているのですか
  • 私が御社に入社したら、どのように成長できるのですか

等を聞いてくる方が一定数いらっしゃいますが、弊社は特段何もしません(笑)

何もしないというと語弊がありますが、大手のように何でも教えてあげる姿勢ではなく、優秀なエンジニアとやりたいことがしやすい環境を提供するから、勝手にやってねーという雰囲気はあるかなと。

でもこれが優秀な方にとっては一番良い育成方法だと思うんですよね。何でもかんでも指示するのはお互いにとって非効率じゃないですか。あくまで成長するための必要な環境やリソースは揃っているから、それを生かすも殺すもあなた次第。

Ocean Tokyoのトップスタイリストの方がボソッと言っていた言葉で、
早く帰りたい、休みたい、でも技術を身に着けて高い給料が欲しいなんて甘いよね
とありましたが、全くその通りだなと。

説明会でも伝えておりますが、弊社は結果的に残業時間が少なくなっておりますが、会社として特別に残業時間を抑制するためにしていることってあまりないんです。
あくまで自分の仕事に責任を持って頂く中で、早く帰りたい人はそうすれば良いし、長くやりたいときは残れば良い。そのため私は会社のフルフレックス制度を使って自由に出退勤させてもらっています。(明日は午前にジム行ってから午後出勤しようかな(笑))

個人的にはこのような環境がベストだと思っております。

色々な考え方があって良いと思いますが、若い時から指示されることに慣れてしまうと、処理能力は高くなりますが、いわゆる大手でしか通用しないオペレーション型の人材になってしまいますよ。

今の40歳後半の方はそれでも逃げ切れるのかもしれませんが、そうでない方は自分をしっかりブランディングし、何が出来るのかを常日頃考え続けなければいけません。そのために会社は手段として利用することが重要だと思うので、企業を選ぶポイントに「研修制度」を掲げている方は、今一度熟慮することを強くお勧めします。

最後は無理やりまとめましたが、決してOcean Tokyoの回し者ではないのでご安心下さい(笑)ただ一度YouTubeでカットやスタイリング技術を見ると感動するので、宜しければ空いている時間にどうぞ!

Automatic Relevance Determination(ARD)

はじめに

 今回は、Automatic Relevance Determination(ARD)について解説する。ARDとは、目的変数に対する個々の説明変数の寄与の大きさを見積もる手法である。今回は以下の2つの文脈でARDを行う。

  • ベイズ推定を用いた回帰によりARDを行う。
  • ガウス過程を用いた回帰によりARDを行う。
  • ベイズ推定を用いた回帰によるARD

    定式化

     目的変数をX=(x_0,\cdots,x_{N-1})、説明変数をY=(y_0,\cdots,y_{N-1})とする。ここで、x_n\in\mathbb{R}^M,y_n\in\mathbb{R}である。潜在変数\thetaを導入し、同時確率分布p(X,Y,\theta)を考える。この分布にベイズの定理を適用すると次式を得る。

    (1)    \begin{equation*} p(\theta|X,Y)=\frac{p(Y|X,\theta)p(\theta)}{p(Y|X)} \end{equation*}

    尤度p(Y|X,\theta)として

    (2)    \begin{eqnarray*} p(Y|X,\theta)&=&\prod_{n=0}^{N-1}p(y_n|x_n,\theta) \\ p(y_n|x_n,\theta)&=&\mathcal{N}(y_n|w^T x_n,\alpha^{-1}) \end{eqnarray*}

    を仮定する。\mathcal{N}(y|\mu,\sigma^2)は平均\mu、標準偏差\sigmaを持つ正規分布を表す。\theta=(w,\alpha)とした。w\in \mathbb{R}^M,\alpha\in\mathbb{R}である。これらのパラメータに対する事前確率p(\theta)として次式を仮定する。

    (3)    \begin{eqnarray*} p(\theta) &=& p(w,\alpha)\\ &=& p(w|\lambda)p(\lambda)p(\alpha) \end{eqnarray*}

    ここで、新たなパラメータ\lambda=(\lambda_0,\cdots,\lambda_{M-1})を導入した。各確率分布を次式で定義する。

    (4)    \begin{eqnarray*} p(w|\lambda)&=&\mathcal{N}(w|0_M,A^{-1})\\ &=&\prod_{m=0}^{M-1}\mathcal{N}(w_m|0,\lambda_m^{-1}) \\ A&=&diag(\lambda_0,\cdots,\lambda_{M-1}) \\ p(\alpha)&=&{\rm Gam}(\alpha|a,b) \\ p(\lambda_m)&=&{\rm Gam}(\lambda_m|c,d) \\ \end{eqnarray*}

    {\rm Gam}(\lambda|c,d)はハイパーパラメータc,dを持つガンマ分布、0_MM次元のゼロベクトル、AM\times Mの対角行列である。w,\alpha,\lambdaは推定すべきパラメータであり、a,b,c,dはエビデンスp(Y|X)が最大になるように決めるハイパーパラメータである。

     さて、式(2)は回帰式を

    (5)    \begin{eqnarray*} y_n&=&w^T x_n \\ &=&w_0 x_{n0} + \cdots + w_{M-1} x_{nM-1} \end{eqnarray*}

    と仮定していることを意味する(ノイズ部分は無視した)。つまり、w_mは説明変数x_{nm}の寄与の大きさを表す。これがベイズ推定によるARDの仕組みである。

     仮定した全ての確率分布を式(1)に代入すると、次の事後確率分布を厳密に(解析的に)求めることができる。

  • p(w|X,Y)
  • p(\alpha|X,Y)
  • p(\lambda|X,Y)

  • 事後確率分布p(w|X,Y)から、個々の説明変数の寄与の大きさを知ることができる。また、次式により未知データx_{*}に対するy_{*}を予測することができる。

    (6)    \begin{eqnarray*} p(y_*|x_*,X,Y)=\int dw\;d\alpha\;d\lambda\;p(y_*|x_*,w,\alpha,\lambda)p(w|X,Y)p(\alpha|X,Y)p(\lambda|X,Y) \end{eqnarray*}

    データ作成

     回帰に用いるデータを次の手順で作成した。

  • N=130,M=3とした。つまり、3次元ベクトルx_n=(x_{n0},x_{n1},x_{n2})を130個用意する。
  • [0,1)の範囲で乱数を生成し、これをx_{n0}とした。
  • [0,100)の範囲で乱数を生成し、これをx_{n1}とした。
  • [0,0.1)の範囲で乱数を生成し、これをx_{n2}とした。
  • 次式によりy_nを生成した。

    (7)    \begin{equation*} y_n=\cos\left({\frac{x_{n0}\;x_{n2}}{2}\right)+\frac{x_{n0}\;x_{n2}}{10} \end{equation*}

     
    説明変数x_{n1}は目的変数y_nに全く寄与せず、各説明変数のスケールは大きく異なる状況をシミュレートしたものである。訓練データを100個、テストデータを30個とした。前者で学習を行い、後者で検証を行う。

    学習

     学習の前に以下の前処理を行う。

    (8)    \begin{eqnarray*} x_{nm}^{\prime}&=&\frac{x_{nm}-\mu_{m}}{\sigma_{m}}\\ \mu_{m}&=&\frac{1}{N}\sum_{n=0}^{N-1} x_{nm}\\ \sigma_{m}^2&=&\frac{1}{N}\sum_{n=0}^{N-1} (x_{nm}-\mu_m)^2 \end{eqnarray*}

    各軸(各次元)ごとに、平均値を0に標準偏差を1に正規化する。このあと、ARDを行う。Pythonライブラリsklearnに、上の「定式化」で示したロジックを実装したクラスARDRegressionがある。これを用いると、学習部分のコードは以下のようになる(ソースはここのsample_sklearn.pyである)。

    3行目でARDRegressionオブジェクトを作成し、4行目で学習する。次に結果を示す。

    結果

     最初に示すのは、(w_0,w_1,w_2)の平均値と標準偏差である。これはp(w|X,Y)から求まる量である。

    期待通りの結果である。x_0,x_2からの寄与が大きく、x_1からの寄与はほとんどない。標準偏差は小さ過ぎるので上図では判別できなくなっている。次に示すのは30個のテストデータを予測した結果である。

    |{\rm Truth - Prediction}|の平均値は0.266となった。

    ガウス過程を用いた回帰によるARD

    定式化

     出発点は先と同じである。

    (9)    \begin{equation*} p(\theta|X,Y)=\frac{p(Y|X,\theta)\;p(\theta)}{p(Y|X)} \end{equation*}

     
    パラメータ\thetaをガウス過程に使うカーネルに関わる部分\theta_Kとそうでない部分\theta_Lの2つに分離する。さらに、XYの間に次式を仮定する。

    (10)    \begin{eqnarray*} y_n&=&f(x_n)+\epsilon_n \\ \epsilon_n&\sim&\mathcal{N}(\epsilon_n|0,\sigma^2) \end{eqnarray*}

    ここで、\mathcal{N}(\epsilon_n|0,\sigma^2)は平均0、分散\sigma^2の正規分布を表す。各観測値は独立同分布から生成されると仮定すると、尤度は

    (11)    \begin{eqnarray*} p(Y|X,\theta_L) &=&\prod_{n=0}^{N-1} p(y_n|x_n,\theta_L) \\ &=&\prod_{n=0}^{N-1} \mathcal{N}(y_n|f(x_n),\sigma^2)  \end{eqnarray*}

    と書くことができる。ここで、\theta_L=(f(\cdot),\sigma)とした。\sigmaの事前分布としてp(\sigma)を、関数f(\cdot)の事前分布として次のガウス過程を仮定する。

    (12)    \begin{equation*} p(f|\theta_K)=\mathcal{N}(f|0_N,K_{NN}^{\theta_K}) \end{equation*}

    ここで、f=\left(f(x_0),\cdots,f(x_{N-1})\right)とした。0_NN次元のゼロベクトル、K_{NN}^{\theta_K}はパラメータ\theta_Kを持つN\times Nの共分散行列、その成分(K_{NN}^{\theta_K})_{n,n^{\prime}}=k_{NN}^{\theta_K}(x_n,x_{n^{\prime}})がカーネル関数となる。カーネル関数として次のものを用いる。

    (13)    \begin{equation*} k_{NN}^{\theta_K}(x_n,x_{n^{\prime}})=\exp{\left(-\frac{1}{2}\sum_{m=0}^{M-1}\left(\frac{x_{nm}-x_{n^{\prime}m}}{l_m}\right)^2\right)} \end{equation*}

    ここで、\theta_K=(l_0,\cdots,l_{M-1})とした。l_mは各軸のスケール長を表す。この逆数が説明変数の重みに相当する。さらに、\theta_Kの事前分布p(\theta_K)も導入する。ここまでの結果をまとめると、式(9)は次のようになる。

    (14)    \begin{equation*} p(f,\sigma,\theta_K|X,Y)=\frac{p(Y|X,\sigma,f)\;p(\sigma)\;p(f|\theta_K)\;p(\theta_K)}{p(Y|X)} \end{equation*}

    fの事前分布p(f|\theta_K)がガウス過程であることに注意する。上式をベイズ推定により評価することもできるが、ここでは右辺分子を取り出しMAP推定を行う。右辺分子の対数を取ると

    (15)    \begin{equation*} L=\log{\left(p(Y|X,\sigma,f)\;p(\sigma)\;p(f|\theta_K)\;p(\theta_K)\right)} \end{equation*}

    を得る。これを最大にするような\theta_K\sigmaを求める。

    (16)    \begin{equation*} (\theta_K^{MAP},\sigma^{MAP})={\rm arg}\max_{\theta_K,\sigma}L \end{equation*}

    この2つのパラメータについては点推定であることに注意する(確率を求めるのではない)。未知の値x_{\star}に対するf_\star=f(x_\star)の確率分布は次式から計算される。

    (17)    \begin{equation*} p(f_\star|\theta_K^{MAP})=\int df\;p(f_\star|f,\theta_K^{MAP})\;p(f|\theta_K^{MAP}) \end{equation*}

    右辺の積分内の最初の項p(f_\star|f,\theta_K^{MAP})p(f(x_\star)|f(x_0),\cdots,f(x_{N-1}),\theta_K^{MAP})を表し、式(12)から解析的に求めることができる条件付き確率分布である。上式からf_\starの分布が分かれば、未知の値x_{\star}に対するy_\starの値は次式から決定することができる。

    (18)    \begin{eqnarray*} f_\star&\sim&p(f_\star|\theta_K^{MAP}) \\ \epsilon_\star&\sim&\mathcal{N}(\epsilon_\star|0,\left(\sigma^{MAP}\right)^2) \\ y_\star&=&f_\star+\epsilon_\star \end{eqnarray*}

    以上で定式化できたので、実際に計算を行う。

    学習

     上の定式化で示したロジックは、ガウス過程のためのPythonライブラリGPyに実装されている。先と同じデータを使用し、先と同じ前処理を施したあと、以下を実行する(ソースはここのsample_gp_multi_dim.ipynbである)。

    2行目でカーネル関数(式(13)に相当する)を定義し、6行目と9行目でガウス過程による回帰を行う(ベイズ推定ではなくMAP推定が行われる)。

    結果

     最初に重み(1/l_0,1/l_1,1/l_2)の値を示す。

    期待通りの結果である。x_0,x_2からの寄与が大きく、x_1からの寄与はほとんどない。l_mは点推定される量であるから、「ベイズ推定を用いた回帰によるARD」の場合とは異なり標準偏差は存在しないことに注意する。次に、テストデータを予測した結果を示す。

    標準偏差は小さ過ぎて上図では判別できなくなっている。|{\rm Truth - Prediction}|の平均値は0.212となった。「ベイズ推定を用いた回帰によるARD」のときは0.266であったから改善されている。ガウス過程の場合、非線形回帰となるため精度が上がるのだろう。

    まとめ

     今回は、2つの文脈でAutomatic Relevance Determination(ARD)を見た。

    1. ベイズ推定を用いた回帰によるARD
    2. ガウス過程を用いた回帰によるARD

    1の回帰は線形回帰であるが、2の回帰は非線形回帰である。今回のデータに対しては、予測精度は2の方が高い。また、1の計算ではM\times Mの行列を、2の計算ではN\times Nの行列を扱う。したがって、今回のようなM<Nの場合は、1の方が高速に計算できる。

  • 令和初出展!「第28回Japan IT Week 【春】後期」の出展レポート(2019.05.08〜10)

    「第28回Japan IT Week 【春】後期」の出展レポート
    みなさん、こんにちは。アートディレクターのhayatoです。
    今年のGW10連休はいかがお過ごしでしたか?
    私は妻の実家に帰省して、義祖父母と一緒にバーベキューをしたり、遊園地に行ったりして、娘がとても喜んでいたのが印象的な休みになりました ^^
    そんな楽しかった10連休明けすぐの展示会出展レポートです。

    AI、IoT、DX、CAD/CAM、粒子法解析、アジャイル開発、SESをキーワードに展示

    「第28回Japan IT Week 【春】後期」の出展レポート
    「第28回Japan IT Week 【春】後期」の出展レポート
    先週の5/8(水)〜10(金)に東京ビッグサイト青海展示棟で開催された「第28回Japan IT Week 【春】後期、ビッグデータ活用展」に出展いたしました。今回は弊社全事業部からAIやIoT、DX(デジタルトランスフォーメーション)、CAD/CAM、3Dデータの類似検索、粒子法解析、アジャイル開発、SESをキーワードにコンテンツをご紹介させていただきました。
    「第28回Japan IT Week 【春】後期」の出展レポート

    弊社事業の全体像

    「第28回Japan IT Week 【春】後期」の出展レポート
    弊社(コアコンセプト・テクノロジー、略称CCT)はシステム開発を中心に
    「コンサルティング」「システム開発」「解析・AI」の事業と、これら事業に人材を供給する「SES(システムエンジニアリングサービス)」が各種事業を支えています。また、製造業を中心に開発してきた知見を活かし、「IoTソリューション、Orizuru」を現在展開しております。

    AI(要因解析、予兆保全、異常検知)

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    AIのコーナーでは、「プリント基板の穴あけ加工時の位置ズレ要因の解析事例」「水洗装置の耐久試験データから異常の予兆を確認した予兆保全」「製品の耐久試験動画から異常箇所だけ検知した動画の異常検知」をご紹介しました。

    3Dデータの類似検索

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    こちらでは、NTTデータエンジニアリングシステムズ様の製品「Manufacturing-Space®︎」に導入されている3Dデータの類似検索機能を有する「Orizuru 3D」をご紹介。3Dデータを保有されている多くの企業様よりご要望など多くいただくことができました。

    IoTソリューション「Orizuru」

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    製造業向けのIoTソリューション「Orizuru」の全体像をご紹介。
    今年は1月に開催されたスマート工場EXPOに出展しており、Orizuruという名前を聞いたことがあるというお客様も多くいらっしゃいました。

    様々なメーカーの工作機械(CNC)からデータを取得し、PLCやセンサー、ロボットなどのデータを一元管理できることが特徴です。その他にも、データの収集から蓄積、可視化、AIによる活用など、お客様のIoT導入フェーズに合わせてご提案が可能です。

    粒子法解析・アルゴリズム関数

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    他社ではあまり多く見られない解析事業部からのコンテンツ。粒子法を使った熱変化の可視化や流体・熱連成解析、水しぶきなどの飛沫範囲の可視化などをご紹介。その他、弊社独自の手法であるアルゴリズム関数による流体解析などをご紹介いたしました。

    DX(デジタルトランスフォーメーション)

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    弊社で推奨している「DXフレームワーク」を使ってコンサルティングから対応させていただいた事例をご紹介。最近のバズワードということもあり、非常に多くのお客様からご相談をいただきました。「DXフレームワーク」は今後活用の機会が増えそうです。

    新規事業創出

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    大手会計事務所様と共同で行ったSaaS基盤構築事例をご紹介。自由貿易協定(FTA)の活用を目的とした各種サービスをシステム構築により実現。アプリケーション開発からインフラ構築、メーカーサポート、運用保守などをワンストップで提供し、新規事業をお客様と一緒に運用している事例です。

    SES(システムエンジニアリングサービス)

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    多くの企業から人材に関する引き合いが多かったSES(システムエンジニアリングサービス)。確実な提案力と安定の人材調達力、堅実な実績とフォロー体制でお客様のプロジェクトサポートをご提案させていただいております。
    「第28回Japan IT Week 【春】後期」の出展レポート

    アジャイル開発

    「第28回Japan IT Week 【春】後期」の出展レポート「第28回Japan IT Week 【春】後期」の出展レポート

    システム開発におけるプロセスに関して、お客様の要件・課題に合わせた事例をご紹介。流動的な要件・課題に対する「アジャイル開発」事例や、固定的な要件・課題に対する従来型の開発プロセス「ウォーターフォール開発」事例をご説明させていただきました。

    Salesforce®︎

    「第28回Japan IT Week 【春】後期」の出展レポート
    Salesforce®︎を活用した事例やソリューションをご紹介。インサイドセールスを効率化したヤマトフィナンシャル株式会社様の事例では課題から対応内容、対応効果をご説明、またSalesforce®︎のUIを改善したソリューションをご案内いたしました。
    「第28回Japan IT Week 【春】後期」の出展レポート

    動画の異常検知

    「第28回Japan IT Week 【春】後期」の出展レポート
    AIブースでもご紹介している動画の異常検知に関して、プレゼンテーションにて多くの皆様にご紹介させていただきました。動画の異常検知の活用事例や技術概要の説明、動画による実際のデモなどをご説明いたしました。今回ご説明した内容は「SSII2019:第25回画像センシングシンポジウム」でも発表予定です。
    「第28回Japan IT Week 【春】後期」の出展レポート

    展示会出展を振り返って

    3日間という短い期間でしたが、多くのお客様に弊社のコンテンツをご紹介することができました。
    令和初出展の今回は、新しく建設された青海展示棟ということで、お客様数などの心配もありましたが、特にこれまでと変わらず盛況に終えることができました。
    また、今回はNTTデータエンジニアリングシステムズ様に3Dの類似検索に関するご協力いただき、誠にありがとうございました。今後も様々な企業様とご一緒させていただければと思います。

    そして、今回のブース前で集合写真!
    「第28回Japan IT Week 【春】後期」の出展レポート

    3日間を終えて、最後は恒例の打ち上げ!
    3日間の疲れもここで癒えます ^^
    「第28回Japan IT Week 【春】後期」の出展レポート

    今回の展示会で多くのお客様と様々な会話をさせていただきました。お客様のビジネスに少しでも弊社がお役立てできそうであればぜひこちらからご連絡いただければと思います。お客様のビジネスを加速させるべく、CCTはDX(デジタルトランスフォーメーション)による事業変革をご支援いたします。
    それでは、次回もお楽しみに。
    hayato

    One Class Support Vector Machine(One Class SVM)入門

    こんにちはtetsuです。

    今回は外れ値検知や異常検知で使われるOne Class Support Vector Machine(よくOCSVMやOne Class SVMと略されます。本稿ではOne Class SVMと略すことにします。)の概要と導出について述べていきたいと思います。ベクトルの演算ができれば、最後のラグランジュの未定乗数法の部分を除いて問題なく読める想定です。

    One Class Support Vector Machineとは?

    One Class SVMは大多数が正常であるようなデータの集合{\mbox{\boldmath $x$}}_1,\cdots,{\mbox{\boldmath $x$}}_Nをもとに学習をおこない、未知のデータが正常であるのか、異常であるのかを判定する手法です。一般には正常に作られた製品や正常な状態のデータは多く手に入れることができても、異常な製品や異常な状態のデータはあまり手に入りません。そのようなケースに対してOne Class SVMを適用することが可能です。

    One Class Support Vector Machineの導出

    早速One Class SVMの導出に入っていきますが、まずはハードマージン最大化というものを紹介し、その後にソフトマージン最大化の場合について述べます。

    ハードマージン最大化

    One Class SVMでは次のような関数を用いて未知のデータ{\mbox{\boldmath $x$}}が正常なのか、異常なのかを判定します。

        \begin{eqnarray*}y={\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}} - b. \end{eqnarray*}

    ここで{\mbox{\boldmath $w$}}, b(>0)はそれぞれ学習によって得るパラメータです。
    {\mbox{\boldmath $x$}}に対するyの値が0より大きいときに{\mbox{\boldmath $x$}}は正常と判定され、0より小さいときに{\mbox{\boldmath $x$}}は異常と判定されます。y=0となるような{\mbox{\boldmath $x$}}の集まりによって作られる境界線が正常か異常かの分かれ目になるため、この境界を識別平面といいます。

    ここで問題となるのは{\mbox{\boldmath $w$}}, bをどう求めるかになります。
    One Class SVMでは次のような目標に沿って{\mbox{\boldmath $w$}}, bを求めます。

    目標1
    原点と識別平面との距離が最大になるように{\mbox{\boldmath $w$}}, bを求める。
    ただし、すべてのデータ{\mbox{\boldmath $x$}_i}が異常と判定されないようにする。つまり、

        \begin{eqnarray*}{\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}_i} - b \geq 0,\ i=0, 1,\cdots,N.\end{eqnarray*}

    この目標1を達成している状態を2次元の図であらわすと次のようになります。緑の丸が学習に用いられたデータで、黄色の線が識別平面になります。すべてのデータが黄色の識別平面を境にして原点と反対側(あるいは識別平面上)に位置するように識別平面が決定されています。
              ocsvm_target
    2次元の場合には図にしてみることでそれらしい識別平面が引けますが、実際には{\mbox{\boldmath $x$}_i}がもっと大きい次元のベクトルになるので図にすることができません。次からは数式を使って目標1を達成する方法を考えます。

    まず先に知っておくと便利な性質を示します。以下のようなものです。

    性質:{\mbox{\boldmath $w$}}と識別平面は直交する。

    これは識別平面上の異なる適当な2点を{\mbox{\boldmath $x$}}_A, \mbox{\boldmath $x$}}_Bとおいたときに、

        \begin{eqnarray*}   \left\{     \begin{array}{l}       {\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}_A} - b=0 \\       {\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}_B} - b=0     \end{array}   \right. \end{eqnarray*}

    が成り立つことを利用して示すことができます。1つめの式から2つめの式を引くことで{\mbox{\boldmath $w$}}^T({\mbox{\boldmath $x$}_A}-  {\mbox{\boldmath $x$}_B} ) =0が得られ、{\mbox{\boldmath $w$}}{\mbox{\boldmath $x$}_A}-  {\mbox{\boldmath $x$}_B}が直交することがわかります。{\mbox{\boldmath $x$}_A}-  {\mbox{\boldmath $x$}_B}は下の図のように識別平面と平行なベクトルですので、{\mbox{\boldmath $w$}}は識別平面と直交するといえます。
              ocsvm_param_orth

    次に原点から識別平面までの距離を数式として求めていきます。
    まず長さがd(>0){\mbox{\boldmath $w$}}と同じ向きであるようなベクトル{\mbox{\boldmath $x$}}について考えてみます。変数を色々と定義しますので、次の図を適宜参照下さい。
              ocsvm_param_orth
    {\mbox{\boldmath $x$}}は長さd{\mbox{\boldmath $w$}}と同じ向きのベクトルであるという定義から以下のようにあらわされます。

         \begin{eqnarray*}{\mbox{\boldmath $x$}} = d \frac{{\mbox{\boldmath $w$}}}{{||\mbox{\boldmath $w$}}||_2 }. \end{eqnarray*}

    ここで||\mbox{\boldmath $w$}}||_2はベクトル\mbox{\boldmath $w$}}の長さをあらわします。
    両辺に対して{\mbox{\boldmath $w$}}との内積をとれば、

    (1)    \begin{eqnarray*}d = \frac{{\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}}}{{||\mbox{\boldmath $w$}}||_2 }\end{eqnarray*}

    という関係を得ることができます。
    ここで、この{\mbox{\boldmath $x$}}の長さが原点と識別平面までの距離(rと置いておきます)であるケースを考えてみます。そのようなベクトルを{\mbox{\boldmath $x$}_C}とおくと、{\mbox{\boldmath $x$}_C}は識別平面の上にありますので、{\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}_C} - b=0となります。式(1)にこの関係を当てはめると、次が求まります。

         \begin{eqnarray*}r = \frac{b}{||{\mbox{\boldmath $w$}}||_2}.\end{eqnarray*}

    ついでとなりますが、ここで識別平面から任意の{\mbox{\boldmath $x$}}までの符号付きの距離を以下のように求めておきます。

    (2)    \begin{eqnarray*}d - r = \frac{{\mbox{\boldmath $w$}}^T{\mbox{\boldmath $x$}}-b}{||{\mbox{\boldmath $w$}}||_2} = \frac{y}{||{\mbox{\boldmath $w$}}||_2}. \end{eqnarray*}

    以上から原点から識別平面までの距離はr=b/||{\mbox{\boldmath $w$}}||_2とわかりましたので、これを最大化したときに目的の{\mbox{\boldmath $w$}bが求まります。ただし、後々の計算の利便さのために式を少し書き換えます。式をよくみてみると、rを最大化することは||{\mbox{\boldmath $w$}}||_2 - bを最小化することと等しいことがわかります。また||{\mbox{\boldmath $w$}}||_2の部分は||{\mbox{\boldmath $w$}}||_2^2 / 2としても最小化問題には影響を及ぼさないため、便宜上このように置きます。
    以上のような最大化問題の書き換えの結果、One Class SVMで達成するべき目標1の内容は次のようにあらわされます。

    目標1
    次の最小化問題を解く。

        \begin{eqnarray*}\min_{b, {\mbox{\boldmath $w$}}} \frac{1}{2}||{\mbox{\boldmath $w$}}||_2^2 - b.\end{eqnarray*}

    ただしすべてのデータ{\mbox{\boldmath $x$}_i}に対して、

        \begin{eqnarray*}{\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}_i} - b \geq 0,\ i=0, 1,\cdots,N.\end{eqnarray*}

    この問題を(機械的に)解くことで、はじめに示した図にあるような識別平面を求めることができます。

    ここまでで労力をかけて式変形などを色々とおこなってきましたが、実は紹介してきた方法には問題があります。次に問題点について述べ、これを解決するソフトマージン最大化のOne Class SVMの説明に移ります。

    ハードマージン最大化のOne Class SVMの問題点

    はじめにデータの集合{\mbox{\boldmath $x$}}_1,\cdots,{\mbox{\boldmath $x$}}_Nは大多数が正常データであると仮定をしました。この仮定にのっとり、例えば2つだけ異常なデータが混ざっているとしたらどうなるかを考えてみます。図示すると次のようなケースです。
              ocsvm_param_orth
    このような状況で目標1の最小化問題を解くと、次のオレンジ色のような識別平面が引かれることになります。
              ocsvm_param_orth
    見てわかる通り、オレンジ色の識別平面は異常データの影響を大きく受けて極端に原点に近くなります。実際には異常データであっても、異常と判定されないように識別平面を求めているからです。このようなケースでは異常と判定したいデータの多くが正常と判定されてしまう恐れがあります。理想的にはデータの中に異常データがあったとしても、これらの影響をあまり受けずに赤い点線に近い識別平面を引きたいところです。次に紹介するソフトマージン最大化は異常データの影響を大きく受ける問題を回避することができます。

    ソフトマージン最大化

    先程まで考えていた目標1では識別平面と原点の間には学習に用いたデータ点が存在しないように識別平面を求めていました。この条件を緩めて、識別平面を求める際に学習に用いたデータが識別平面から原点の間に位置することを許容するようにしてしまいます。これをソフトマージン最大化といいます。一方で識別平面と原点の間にデータが位置しないようにする目標1のことはハードマージン最大化といいます。

    ソフトマージン最大化ではそれぞれのデータ{\mbox{\boldmath $x$}_i}\xi_i/ {||\mbox{\boldmath $w$}}||}_2\  (\xi_i >0) の長さだけ識別平面を超えてもよいとします。この\xi_i自身も学習によって求める量であり、なるべく小さくします(=原点側にデータが位置するのを許容するといっても、その量は多くないほうがよい)。\xi_iができるだけ小さくなるように、目標1の最小化するべき式を次のように書き換えます。

    (3)   \begin{eqnarray*}\min_{b,\mbox{\boldmath $w$}, \xi_1,\cdots, \xi_N} \frac{1}{2}||\mbox{\boldmath $w$}}||_2^2 - b + \frac{1}{\nu N} \sum_{i=1}^N \xi_i. \end{eqnarray*}

    ここで\nu\ (0< \nu <1)は原点側にデータが超えるのをどの程度許容するのかをあらわす値になり、小さいほど原点側により多くのデータが位置することになります(なぜそう言えるのかは最後に示します)。この値は事前に人が与える必要があります。
    目標1の条件の部分{\mbox{\boldmath $w$}}^T {\mbox{\boldmath $x$}_i} - b \leq 0はどうなるでしょうか。\xi_i/ {||\mbox{\boldmath $w$}}||}_2までは識別平面を超えてもよいということから、式(2)のd - r-\xi_i/ {||\mbox{\boldmath $w$}}||}_2に置き換えることで(原点側に超えるため、マイナスがついています)

    (4)   \begin{align*} -\frac{\xi_i}{ {||\mbox{\boldmath $w$}||}_2} & \leq \frac{{\mbox{\boldmath $w$}}^T{\mbox{\boldmath $x$}_i}-b}{||{\mbox{\boldmath $w$}}||_2} \nonumber \\ -\xi_i & \leq {\mbox{\boldmath $w$}}^T{\mbox{\boldmath $x$}_i}-b \nonumber \\ {\mbox{\boldmath $w$}}^T{\mbox{\boldmath $x$}}- b & \geq - \xi_i  \end{align*}

    という条件が導かれます。
    最小化するべき式(3)と条件(4)から、ソフトマージン最大化でのOne Class SVMで解くべき問題が定まります。

    目標2
    次の最小化問題を解く。

        \begin{eqnarray*}\min_{b,\mbox{\boldmath $w$}, \xi_1,\cdots, \xi_N} \frac{1}{2}||\mbox{\boldmath $w$}}||_2^2 - b + \frac{1}{\nu N} \sum_{i=1}^N \xi_i.\end{eqnarray*}

    ただしすべてのデータ{\mbox{\boldmath $x$}_i}に対して、

        \begin{eqnarray*}{\mbox{\boldmath $w$}}^T{\mbox{\boldmath $x$}}- b & \geq & - \xi_i,\ \xi_i \geq 0 , \ i=0, 1,\cdots,N.\end{eqnarray*}

    以上でソフトマージン最大化での定式化ができました。この目標2に沿って識別平面を求めていくことで、学習に用いるデータに異常データが含まれていてもその影響を緩和することができます。

    実際にはこの最小化問題をこのまま解くのではなく、ラグランジュの未定乗数法を用いて二次計画問題へ落とし込みます。ラグランジュの未定乗数法自身の話と計算の詳細は割愛しますが、計算を進めることで次のような最小化問題が導かれます。

    目標2′
    次の最小化問題を解く。

        \begin{eqnarray*}\min_{\alpha_1, \dots, \alpha_N}\frac{1}{2} \sum_{i=1}^N \sum_{j=1}^N \alpha_i \alpha_j {\mbox{\boldmath $x$}_i}^T {\mbox{\boldmath $x$}_j}.\end{eqnarray*}

    ただし、

        \begin{eqnarray*}0 \leq \alpha_i \leq \frac{1}{\nu N},\  \sum_{i=1}^N \alpha_i = 1.\end{eqnarray*}

    この最小化問題を解いて\alpha_iを求めることで、もともと求めたかったパラメータ\mbox{\boldmath $w$}}b

         \begin{eqnarray*} \mbox{\boldmath $w$} &=& \sum_{i=1}^N \alpha_i \mbox{\boldmath $x$}_i \\ b &=& \mbox{\boldmath $w$}^T \mbox{\boldmath $x$}_{i*} \end{eqnarray*}

    のようにして得られます。ここでbを求める際にあらわれるi*

        \begin{eqnarray*} \ 0 < \alpha_{i*} < \frac{1}{\nu N} \end{eqnarray*}

    となるようなデータの番号になります。
     y= \mbox{\boldmath $w$}^T \mbox{\boldmath $x$} - bでしたので、 y= (\sum_{i=1}^N \alpha_i \mbox{\boldmath $x$}_i)^T \mbox{\boldmath $x$} - bが成り立ちます。 \alpha_i=0に対応している\mbox{\boldmath $x$}_iは予測yに全く影響を与えません。一方で \alpha_i \neq 0となる\mbox{\boldmath $x$}_iは予測に影響を与え、このような\mbox{\boldmath $x$}_iをサポートベクトルといいます。
    最後に\nuの意味について補足します。ラグランジュの未定乗数法の計算過程からわかりますが、\alpha_i=1/(\nu N)となるような\alpha_iに対応する\mbox{\boldmath $x$}_iは識別平面と原点の間に位置するデータとなります。識別平面と原点の間に位置するデータの数をN_Eとおくと、次が導かれます。

         \begin{eqnarray*}1 \geq \sum_{i=1}^N \alpha_i \geq \frac{N_E}{\nu N} \Rightarrow \nu \geq \frac{N_E}{N}\end{eqnarray*}

    よって\nuは学習に用いたデータの中で識別平面と原点との間に位置するデータの割合の上限となります。このことから、\nuを小さくすると識別平面を超えて原点側に位置するデータの数が少なくなるといえます。逆に、大きくすることで原点側に位置するデータの数が多くなるような識別平面ができます。

    まとめ

    今回はOne Class SVMとその導出を紹介しました。One Class SVMはscikit-learnで気軽に試すことが可能ですので、気になった方はぜひ遊んでみて下さい。なお、今回はデータ点{\mbox{\boldmath $x$}}_iをそのまま使用しましたが、一般にはある関数\phi{\mbox{\boldmath $x$}}_iを射影した\phi({\mbox{\boldmath $x$}}_i)を扱います。これにより、データの分布が複雑な問題も解けるようになります。実際に使用する場合にはお気をつけ下さい。

    参考文献:
    Support Vector Method for Novelty Detection

    就活において私が知らなかったこと

    就活において私が知らなかったこと

    こんにちは!
    採用担当の池田です。

    日本が誇るスーパースターのイチロー選手が引退されましたね。私は野球について無知ですし、バスケやサッカーの方が好きなのですが、そんな私でも引退会見を見ながら感傷に浸っておりました。

    私が幼少期からずっとスーパースターだったので、時の流れを感じてしまったのかもしれません(笑)

    ちなみに引退会見を見ながら思ったこととして、
    イチロー選手に質問するのって大変だな
    ということ。

    だって、イチロー選手本人は記者が本当に聞きたがっていることを絶対に分かっているはずなのに、敢えてかわしていますもんね(笑)また浅い質問であれば即切られてしまう。

    そのため、引退会見にふさわしい質問かつ、考え抜かれた質問でないとしっかり答えてくれないので、記者の方も非常に苦労されたことでしょう。

    ただ、就活における面接でも肝に銘じなければいけないことがあるなと思ったのは、
    相手が求める答えを言うことが正解ではない
    ということ。

    頭の良い人って、面接官の印象や所作、質問の温度感等を瞬時に判断して、
    この面接官にはこの回答が刺さるだろう
    と瞬時に判断して答えていると思うんですよね。

    なので、100%本音で回答しているわけでは無いということ。

    でも本来、それっておかしなことで、候補者の方を知るためには、面接官というフィルターを抜きにして見ないといけませんよね。

    • どんな考えを持っているのか
    • どういう価値観なのか

    でも面接ではそのようにすることは難しく、候補者のマインドとしては通過するためにどうすべきかという考えになってしまう傾向があるので、その結果として面接官に合わせた回答になり、結果として入社後にギャップを生んでしまうことに繋がりかねません。

    弊社の面接を受けてくる方の中には私のブログを読んでいる方が最近多くなっているのですが、明らかに私の考えに寄せてきているなと思う人がごく少数いらっしゃるんですよね(笑)

    もちろん自分と同じ考えを持った方だとそれなりに嬉しさは感じてしまうのですが、残念ながらそれが本音なのか、本心で思っていることなのかは面接を通じて少しずつ見極めないといけないなと思っています。

    とにもかくにも、イチロー選手、感動をありがとうございました。ぜひ今までの経験を活かして、野球だけでなく日本のスポーツ界発展に貢献されることを応援しております!

    さて、今回は昨今騒がせている件について触れたいと思います。

    女性の就活について

    私の経験談になりますが、一つ謝らなければいけないなと思っていることがあります。

    前職で多くの就活生と関わっていたのですが、毎年のように何人かの女性の就活生が『OB訪問』の際に、
    なんかこの前、〇〇企業の人と会ったら、めっちゃ口説かれたんだけど
    みたいなことを言っていたんですよね。

    その時に私が思っていたことが、
    ちゃんとした企業に勤めている社会人が、就活生を口説くわけないだろ。自惚れ過ぎだし、自意識過剰にもほどがある
    と冷めた目で見ていたんですよね。

    私は1社目の際に数名の就活生のOB訪問を受けた経験はあったのですが、その中に女性がいても、口説くなんて全く考えたことはなかったです。神に誓っても言えます。

    もちろん、元々恋愛に関して奥手という性格面もあるかもしれませんが、仮に口説いたりしてもしバレた時のリスクってめちゃくちゃ高くないですか?というかそんなことしたら、間違いなくSNSとか掲示板に書かれたりしてバレますよね。その結果として、社内の評判はガタ落ち間違いなしです。

    なので、佐々木希級の美女がOB訪問に来ても、絶対に口説いたりすることはないと誓えます。
    ※綾瀬はるかなら口説くかも・・・っていうのは冗談です(笑)こういうおじさんがいるからこそ起きている事件なので、以後おふざけしません。

    でも残念ながらニュースになっているように、OB訪問の世界ではそれが横行しているようで、口説くだけなら百歩譲って目をつぶっても、犯罪行為に手を出してしまう方がいるようで衝撃を受けたんですよね。

    というより、私自身が女性の就活について知らなさ過ぎたなと。

    なので、就活支援をしていた当時に女性の就活生が言っていた内容っておそらく本当で、もしかすると危険な目に合いそうになっていた方もいたのかもしれません。

    その辺りは自身の鈍感さかつ、無知だったことで、本当に申し訳なかったと深く反省しています。

    でも普通に考えて、そんな発想すらないと思っていた自分にとっては本当に驚くばかりで、それにより健全にOB訪問を引き受けていた社会人が怪訝な目で見られてしまうことを考えると、なおさら許せない行為だなと思っています。

    なぜOB訪問がスタンダードになったのか

    少し目線を変えますが、そもそも今の就活ではOB訪問がスタンダードになっています。スタンダードになっているからこそ、社会人と就活生が気軽に繋がることができるマッチングアプリが流行っているんですよね。

    ちなみにスタンダードになった背景として、下記が挙げられると思います。

    ①売り手市場だから

    これは単純で、就活生の方が有利になっている市況だからこそ、慎重に選びたいが故だと考えています。
    例えば就活氷河期であれば、内定を出してくれる企業であれば有難いという考えがあり、かつそれが大企業であれば疑う余地もなく入社するのが前提だったと思います。
    ただ現状は、その頃に比べると比較にならないぐらい内定を取りやすくなっていますよね。ほんの一部の超人気企業(総合商社、広告代理店、一部のメーカー等)だけは今なお超難関だと思いますが、それ以外のほとんどの企業はやはり内定を得やすくなっていると思います。これはあくまで主観になってしまいますが、私が就活支援をしていた頃を思い返しても、
    このレベルの学生で、あんな大手企業に内定取れるんだ
    と思った場面は少なくありません。

    そのため、企業と就活生のパワーバランスが崩れているからこそ、就活生が慎重に企業を選ぶためにOB訪問がスタンダードになっていると考えます。

    ②得られる情報量が急激に増えているから

    就活生が良く見るサイトについては過去のブログでも触れましたが、実はその中で敢えて触れなかったサイトがあるんです。
    それは、転職者向けの口コミサイト。

    私が新卒のときも少しだけ見ていましたが、今はほとんどの新卒就活生が見ているような感じを受けますね。そのようなサイトの詳しいユーザーの種別は知らないですが、学生ユーザーは相当数いるはずです。

    そのため、口コミサイトを見る中で、説明会で聞いた内容とギャップがある内容を見かけることも多くなってしまいました。

    • 説明会では残業はほとんどないって言ってたのに、サイトには100時間残業してると書かれている
    • 説明会では社員同士の交流が盛んみたいなことを言ってたのに、サイトには人間関係が崩壊しており、陰湿ないじめも横行していると書かれている
    • 説明会では成果に応じてしっかり評価すると言っていたのに、サイトには年功序列でいくら頑張っても評価されないと書かれている

    この種のサイトは退職者、または退職希望者が書いていることが多いと聞くので、一種の感情論が入っていることは否めませんが、だからこそ、このギャップを埋めるためにリアルな社員の話を求める傾向が高まっているのだと思います。

    ③会社に依存したキャリアではなく、自身で切り開くキャリアの志向性になってきているから

    健全な時代の流れだと思いますが、大手企業に入れば安心という考えが崩壊しつつある今、自分自身でキャリアのことを考えないと淘汰されてしまうという危機感が芽生えつつあると思います。そのため上辺だけの情報ではなく、リアルな情報を聞くことで入社する価値のある会社かを考えたいと思っているのでしょう。

    私自身は駄目な就活生だったので、世間的に良いと言われている企業に入れば大丈夫というのを盲目的に判断していたのですが、優秀な方ほどそのような情報に惑わされることなく自分でしっかり考えるクセがついているのでしょう。これは素晴らしいことですね。

    このような傾向があることで、OB訪問がスタンダードになっていると考えていますが、そのような就活生の意図を利用して、悪質な行為に走る方が一定数いるのであれば、残念ながら従来のやり方を変えなければいけないかもしれません。

    私がOB訪問で疑問だったこと

    私が就活生当時から疑問だったことがあるのですが、
    総合商社はなぜOB訪問が必須なのか
    ということ。

    というか、そもそもこれって本当なんですかね?どなたかOB訪問をせずに内定取れた方っていますか?

    ボスキャリ経由の場合は聞いたことがあるのですが、純粋に日本で就活している方においてです。
    ※ボスキャリに関してはこちらの記事「ボスキャリって誰でも行けるの?6月の大手企業選考終了後に、どうしても大手企業を目指したい方へ」を参照

    今の就活でもおそらくそうだと思いますが、なぜか総合商社ってOB訪問必須って言われているんですよね。5大商社受けるなら、1社あたり約3名はした方が良いみたいな。

    そのため、総合商社の場合はOB訪問の総数では圧倒的に首位だと思うほど、よりスタンダードになっています。

    ただここで一つ疑問なのが、
    配属リスクがあるにも関わらず、なぜOB訪問する必要があるのか
    ということ。

    これって冷静に考えておかしくないですか?

    エネルギー部門と経理部門だとやっていることも雰囲気も全然違いますし、それによって得られるスキルや経験も全く異なります。

    にも関わらず、OB訪問をして

    • エネルギー部門の〇〇さんの話を聞いて、御社の〇〇に魅力を感じています

    ということを面接で伝え、いざ配属で経理になっても多少不満はあってもそこで働く。

    いやいや、じゃあなぜOB訪問したのかと。入社後のイメージを持つことでギャップを埋めるためではないのかと。

    でも総合商社の場合って、“なぜか”OB訪問をやらないと受からないみたいな定説があるのでこれによっても就活生は疲弊しますよね。

    今回事件になったのは総合商社の1社ですが、芋づる式でこの手の事件が浮かび上がってくるような気がしてなりません。おそらくビクビクしている社員も一定数いるのではないでしょうか。

    でも、残念ながらこのような事件が起きても、その企業への人気にあまり影響しないと思うんですよね。だからこそまた繰り返されるし、このような不当行為をしている社員も一向に反省しない。

    何か良い解決策はないのでしょうか。

    人材の流動化こそ、“くだらない”OB訪問を無くす一手に

    まだまだ先になると思いますが、
    一度入社したら安心、一度落ちたら出禁
    という流れを変えることができれば、この手の事件が多少緩和されるのではないかなと。

    OB訪問で社会人がブーブーと幅を利かせているのって、会社の看板があるからですよね。でもその看板の価値が少しでも和らげばというのが私の考えです。

    例えば新卒の就活生がそこまで就活に躍起になるのって、新卒切符がめちゃくちゃ重要だから。でも人材の流動化が進めば、中途で入社すれば良いかという考えになる。OB訪問をして変な感じの社員だったらすぐに断ち切ってしまえば良い。そして一度違う企業に入って、仮に新卒時で志望していた企業に入りたいと思えば、中途で入れば良い。

    ただ、現実的に解雇規制が厳しい日本においては新卒で入社できるかが非常に重要になっていますよね。新卒で総合商社に落ちてしまったとして、仮に中途で受ける場合は新卒以上にハードルが上がります。というより、ハードルが高いように各社のHPで見せていますよね。某総合商社の社員紹介ページを見ると下記のような経歴が載っておりました。

    • 外資系投資銀行出身(海外MBA保持者)
    • 外資系コンサル企業出身(海外MBA保持者)
    • 大手弁護士事務所の弁護士出身

    いやいや、普通に一般企業からじゃ無理なんかい!と思わざるを得ない感じですよね(笑)だったらどこの企業に勤めていたのかが重要になると思わざる得ないので、賢い人ほど大手に入りたがるのは当然です。

    でも一流企業の中においても働かない、成果を出さない人ってたくさんいますよね?そんな人に数千万の給料を払うぐらいだったら、早めに切るまたは給料を下げて、より熱意ある人に投資したほうが絶対に合理的です。

    ただ人材の流動化が進むと、そもそも企業の看板が薄れるので、どうしてもその企業で働きたいと思わなくなるかもしれませんが。。。

    現状、OB訪問の健全化のために、OB訪問そのものにメスを入れようとしている(場所は会社内で実施、お酒を飲みながらは禁止等)ようですが、根本部分から変えないと結局何も変わりませんよ。

    過去にもOB訪問を通じて嫌な思いをされた方って相当数いると思いますが、権力を利用した非常に卑劣な事件だと思わざるを得ないので、今後被害者を生まないために、政府や大手企業が連携して、採用や雇用そのものが変わるきっかけになればと切に願う、今日この頃です。