2013年3月29日金曜日

転職クチコミサイトで図書館関連会社の評判をチェックすると

4月から民間企業に転職して図書館様を相手にした営業職になる予定の僕です。
こんにちは。


什器とか消耗品とかシステムのご説明をすべく、あらゆる図書館に馳せ参じる次第です。
(勘の良い方だと社名がばれそうなギリギリのライン)


研究関係の転職じゃないの!? とか
今までのキャリア捨てる気なの!? とか
頭おかしいの!? など皆様にご心配いただいたうえに、

研究員とか大学図書館とか学術雑誌出版社とか研究施設の図書館など
いろんなチャンスをお断りした形での転職になっておりますが、

本人は純粋に楽しみで仕方がありません。 
ここでこれをやらなきゃいずれ後悔しそうなんだからしょうがあるめぇ。



さてそんな中、今回は久しぶりに就職関連の話です。



先日転職した友人と話をしたところ、
転職先を探す場合、普通はクチコミサイトなんかを気にするものらしいと聞きました。


人のつながりで転職先を探したり、職場で取引のある業者さんから情報を仕入れたりすると
そのあたりはチェックしなくても良いため完全にスルーしており、

そういえばそんな手段があったか! と驚きを受けましてね。


個人的には今さらやってもしょうがないのですが、
どんな生々しい話が書いてあるのか興味がわいたので、
気まぐれに思いついた順に眺めてみました。


網羅的と言い張れるほどクチコミサイト数、チェックした会社数は多くないですが、
以下のようなリンクを見てみました。
(詳細なデータはアカウント登録をしないと見られない情報なので、転載等をせずリンクだけ。)



____
※メモ
  • 全文を見るためにはけっこう手間がかかるので、ところどころ見られなかったものもあります。
  • 出版流通系(学術含む)、家具系、人材系などを中心にチェック。大手事務機器屋さんとかシステム屋さんとか印刷屋さんの類は、大企業の一部分が図書館とほんの少し関わってるだけで、少々手を広げ過ぎな気がしたので除外。岡村製作所、イトーキ、内田洋行、日立製作所、リコー、富士通…などなどもあったりはする。
  • 日本ブッカー、jcross、カーリルなども一応探してみた。
  • 他にも『クチコミランキング』の"転職サイトランキング"のページを見るといろいろありそうなので気になる方は調べたらよろしいのではないかと思います。



そもそもクチコミとやらがどこまで信用できるのかわかりませんが、所感は以下の通りです。
  • 全体的に、保守的でワークライフバランスがとりやすい企業が多いらしい(学術出版系は除く)。当然ながら福利厚生・給料は大きい会社ほど良いが、新人育成環境の良し悪しは企業の規模に比例しないようだ。
    • 丸善はいろいろと心配になるクチコミが多い。ブランドがあって保守的な企業であり、プライベートも大事にできそうだが、人材育成がうまくいっていないような感想も。
    • 日販の福利厚生とか給与とか、転職会議における「社内恋愛が多い」などの項目はとても興味がわく。
    • トーハンは縦社会体育会系らしい。
    • TRCは正職員か非正規かによってコメントが割れているようにも見えるが、将来的にも生き延びそうな会社
    • 意外にナカバヤシの給料が良さそうだったりする。ただし製本事業部が縮小されてくるような話もあり、図書館との関わりは減っていくことも予想される。
    • 埼玉福祉会は図書館司書に興味を持った人の視野に入ってほしい組織だけれど、どの程度の人数で運営されているのか、採用をしているのかはよくわからなかった。でも楽しそうではある。
  • 業界全体に対する閉塞感は多くの人が感じているみたい。新規参入が少なく、すみわけが比較的綺麗にできていたのがこの業界の特徴で、その分、政治・技術などの変化がある中で対応できていないことにも不安と焦りがあり、退職を選ぶ人も少なくないらしい。良く言えば安定なのかもしれないけど、時間の問題かも?
  • 個人的に内部事情が気になるのは編集工学研究所だけど、なかった。残念。



この手のクチコミは公開されている待遇以外、
例えば有給休暇が実際に使いやすいかどうかなどを知るために役立つかもしれないけれど、

やりがいだの働き方なんてものは個人と会社の相性だと思います。
興味関心とバックグラウンドは人によって違いますし。


自らを知ることこそが幸せな就職・転職の近道と考え
一つの意見として使いこなしていくのが重要かもしれませんね。


2013年3月19日火曜日

世界的な大学ランキングの評価指標を眺めよう その10 おわりに

まとめ…、ではないですが。シリーズ最後に。

本来、指標やそれに基づくランキングというのはあくまで
 「ある観点に基づいた見方とその結果生まれる順位」ですので、

「僕が見たことある大学の中でなんか良いと思ったランキング」などを作っても
評価は評価だしランキングはランキングです。

もちろん 貴様の脳内にしまっておけ! と言われるでしょう。


もうちょっと高度な理由をつけて否定するとなれば、
  • 客観性がない(主観的すぎる)
  • 評価指標が不透明で再現性がない(評価する軸が謎。誰がやっても同じになるわけでもない。さては気分か。)
  • 評価対象が不明(どこの大学がエントリされるのかわからない)
  • 評価対象が少ない(一人で見られる数なんてたかが知れてる)
  • 有用性がない(使いどころがない)
となっていくことでしょう。


多くのランキングはそのような問題をクリアしていますが、
ランキングの有効性を視野に入れて使いこなすためには
やはり指標を一段掘り下げ、対象データの特徴を抑え、傾向を掴む必要があると思います。


そもそも世界にある高等教育機関の数はいつくあるかご存知でしょうか?

17,000だそうです(シリーズ第一回に書いたEUAのレポートによると)。

トップ500だ、トップ50だ、トップ5だとやってますが、
比率だけ考えればそれぞれ
クラスNo.1だ、学年No.1だ、10年に一人の逸材だ、ってことでしょうか。

そもそもエントリされただけですごいことなんですね。
そこはしっかりおさえなければいけません。
大多数の大学はランキングにエントリもされてないわけですし。

現実的に全ての組織を対象に分析を行うのは
とても骨が折れるから無理でも仕方がないとは思いますが(たぶん下位の方は差がないし)、
それでも「世界は広いからランキングに載らなくても仕方ない」と言えないのは
やはり"学術的"な世界の指標だからかもしれません。

アカデミックの業界は標準が「対世界」なところありますものね(人文系はちょっと違うけど)。




そして指標を大雑把に分けると

学術系:論文数、被引用数、h-indexなど
評判系:同業者からの評判、学生・教員からの評判など
ステータス系:学生数、教員数、助成金数、博士取得者数など

使われておりましたが、
それぞれの指標にもバイアスや定義の違いによる微妙な差があると
されている所には注意が必要です。



たとえば、論文生産数や被引用数の場合、
カウントするデータベースを何にするか、
分野、言語・地域的な対象範囲、対象年などの要素をどう設定するかが数字に影響してきます。

だからこそ「分野の平均的な数で割って標準化した」とか
「自己引用(自分で自分の論文を引用する)を除いて数えた」とか書いてあったりするわけです。
このあたりの要素も暇を持て余したらまとめてみるかなぁ。


さて
いろいろ含めて考えると、
完璧で唯一のランキングなど作れるはずがないことになりますが、
どうにもこの「評価」「ランキング」周辺は殺伐としているように感じます。


各種ランキングの類は単純な好奇心を満たすためのものではなく、
助成金、学生の獲得、国際的な競争力など
限られた資源を奪い合ったり効果を確認したりという経営戦略に使われるので
低く評価された団体や個人から不満が出たりとか、
うちの組織はこのままじゃいかんとかなるわけです。

ランキングが公表されると世間からの評判に影響するというのも問題でしょう。


それを考えると評価方法に合わせて行動を変えるのは当然だし、
ビジネス的にはここにコンサルティングのチャンスがあることもわかったものの、

一方で、指標にあわせて行動を変えた後に生まれる結果は、
本来出るべき結果といえるのか? 指標はある側面から見た本質を見る道具ではなかったか?
人為的な操作をされた後につけられるランキングの信頼性はあると言えるのか?
という疑問も湧いたりします。


難しい問題です。真理を探る道具なのか、応用するための道具なのか。興味は尽きません。


まあ、そのあたりは考えてもしょうがない気がするし、
できるかぎり指標やデータや傾向の特徴をおさえたランキングの使い方を
これからも考えていきたいものですね。

2013年3月18日月曜日

世界的な大学ランキングの評価指標を眺めよう その9 SCImago Institutions Rankings編


データはScopusを使用。
Higher Education(学位の授与機構を備えた組織), Health(ライフサイエンスと地球科学など高等教育ではない組織、病院、リサーチセンター、研究所など), Government(国の機関など、行政機関も含む), Private(企業など), Other(国際機関など)に分けてランキング。


各組織について以下のような指標を適用。
  • Output
    • 科学的なペーパーの数。共著の場合はそれぞれの組織に点数を分けて割り当て。
  • International Collaboration::IC(%)
    • Outputのうちの国外機関とのコラボレーションをしている比率。
  • Normalizad Impact::IN
    • 機関の規模を考慮した指標。機関のインパクト(被引用数/ペーパー数)を同期間・同分野のインパクトで割って標準化したスコア。
      • スウェーデンのカロリンスカ研究所では"Item oriented field normalized citation score average"という名前がついてるとか。そのまんまだなおい。
  • High Quality Publications
    • 各分野のSJR indicator(SCImago Journal Rank indicatorという雑誌評価指標)において上から25%に入るとされた雑誌に掲載された比率。
    • SJR indicatorは複雑な式を使っている
      • 概念的にはGoogleのPageRankと同じようなアルゴリズム


組織についてはInternational Association of Universities (UNESCO)や各国の公的情報からリストを作成。機械的な処理によってScopusのデータと自動でマッチングする”名寄せ”(authority control)処理を行っている。作業は世界各国の30人のインフォメーションスペシャリストで構成されたチームが頑張っているらしい。

High Quality Publicationの決め方がやや特徴的ではあるけど、指標としては普通だな。

ちなみにOutputの指標で並べられたランキングをざっと眺めた感じだと、
1位のCNRS(フランス)や2位の中国科学院、3位ロシア科学アカデミー、
5位のマックスプランク研究所、7位のNIH、9位のCSIC(スペイン)がまず見えて、
そりゃあ国策の機関はでかいから大量生産で強いよなぁと感心させられた。

そんな中で、大学としては4位のハーバード、6位の東京大学あたりがさすがの強さを見せているのも印象的です。

直感的な感覚としては、
Web of Scienceからデータをとってきて分析しているランキングと少々異なり、
上位の機関に非英語圏も見られる気がする。
これはデータの収録対象範囲の問題かな。Scopusの方が広いし。
分野差がどの程度出ているのかが気になるところだ…。


研究者として仕事場所を選ぶときに、
大学・研究所など問わずに視野に入れたければ使えるランキング、というのがベストな使いどころな気がするな。

2013年3月17日日曜日

世界的な大学ランキングの評価指標を眺めよう その8 URAP編

今回はUniversity Ranking By Academic Performance(URAP)です。
説明は2011年の場合。

  • 原著論文数 [21%]
    • 2011年に出版されてWeb of Scienceに登録されたarticle数
  • 引用 [21%]
    • 2011のランキングの場合は2007-2011年に出版された論文が引用された数
    • 自己引用は除く
  • 全ドキュメントの数 [10%]
    • 2011年のarticle, conference paper, review, letter, discussion, scriptなどタイプにこだわらない文献数
  • 雑誌のインパクトファクターの合計 [18%]
    • 2007-2011年の論文等が掲載された雑誌のImpact Factorの合計
  • 雑誌の引用インパクトの合計 [15%]
    • 引用"した"論文が掲載された雑誌のImpact Factorの合計
    • 2007-2011年が対象
  • 国際共著 [15%]
    • 2007-2011年に出版された、他国の大学と共同研究をした論文(?/原文はpublication)の数

データがWeb of Scienceのみのようなので、
考えてみるとThomson Reutersのインフォメーションアナリストが
ちょちょいとやれば作れるんじゃ… という気がしなくもないですが
とってきたデータから大学以外で発生した論文を除いたり
自己引用を除く処理をすることを考えると
自動化できなさそうな部分でかなり手間がかかりそう。


メソッドの部分を見ても詳細がこれ以上よくわからないのでなんですが、
Impact Factorの使い方に疑問もあるし、
分野差を考慮しているような記述も見られないし、少しもやもやしている感じはあります。

世界で論文数の多い2500大学を対象にデータを処理し、
そのあと2000大学にランクをつけているそうなので
質より量で勝負な感じのランキング、といった印象。
(他のランキングは500位までとかだし)


目的を見る限り、
世界の大学を格付けしようというものではなくて、
研究推進のための戦略の参考にしてほしいという感じだからいいのかな。

そのわりにはA++みたいな表記が出てますけども。


世界のランキングは重みづけに基づいて600点満点で評価をおこなっていますが、
1位のハーバードが600点で、2位から10位くらいまでで450点前後、
20位圏内で400点前後ってのはなかなか極端な開きがあるね…。


地域ごと、分野ごと、国ごとに分けてのランキングも見られますが、
分野ごとの場合は国際共著指標は使われないようです。


いろいろ気になるところはあるけれど、
「論文数と被引用数による研究評価」であり比較的シンプルなランキングの印象。
「質より量」を重視したいときに見るランキングですな。


2013年3月10日日曜日

世界的な大学ランキングの評価指標を眺めよう その7 Webometrics Ranking編

今回はWebometrics Ranking of World Universities です。


  • Visibility[50%]
    • Impact
      • 大学のドメインが受ける外部リンクの数
        • リンクを受けた数のデータはMajestic SEOahrefs からとってくる
        • 被リンク数の平方根と、被リンクによって出てくるドメイン数を使い、正規化した結果の最大値が指標となる
  • Activity[50%]
    • Presence [1/3]
      • Googleに登録されたメインドメイン(サブドメインとディレクトリも含む)のウェブページ数
        • 外国向けに持っているドメインなどは数えていないような…。
    • Openess [1/3]
      • 各組織のリポジトリに登録されていてGoogle Scholar によって集めることができるpdf, doc, docx, pptファイルの数
      • 今回は2008-2012年のものが対象
    • Excellence [1/3]
      • 各分野のトップ10%に入る被引用回数の論文だけを対象にカウント
        • 2003-2010年の期間が対象だが、SCImagoによると5200以上の大学が0ではない値らしい



科学的なアウトプットを強調した大学のウェブ発信力ランクって感じです。
半年ごとに改訂(1、7月)。
カバーしている大学数が圧倒的に他のランキングより多いものの、
分野によって大学の分類をしていないところなどは改善の余地ありとか。



大学図書館の人が興味を持つのはOpenessランキングあたりだろう。

でもランキングの上位はかなり謎で、
この手のランキングでよくみられる「上位はアメリカまたは英語圏」ではなく、
ブラジル・フィンランド・台湾・スペイン・フランス・イランなどが見えているという…。

なんだろう、原因は?

「非英語圏のウェブサイトでpdf, doc, docx, pptファイルの数が多い」ということだから…
もしかして英語版と母国語版を両方つくって公開していることが多いとか?

謎だな…。