はてなブログの評価指標 Hatena-Indexを実装しました
id:min2-flyのアイディアtitle=Hatena-Indexを実装してみました。*1どのくらい記事を書いているかと、どのくらいはてなブックマークされているかを表す指標になります。
Hatena-Indexの詳細はHatena-Index - かたつむりは電子図書館の夢をみるかをご覧くとして、Hatena-Indexは研究者の評価指標h-indexのはてな版です。記事を論文、はてなブックマークを引用に見立てており、Hatena-Indexが5であれば5以上ブックマークされた記事が5以上存在することを表します。本来は全エントリを対象に計算するのですが、今回は自分の技術的な制約から対象を30エントリに限定しています。
その他、はてなスター・Twitter・Facebook・Google+などの反応もグラフに表示します。
すこしでもブログ書くモチベーションやはてなブログへ切り替えの切っ掛けになれば幸いです。
利用にあたって
いろいろと能力不足で以下のような状態です、ひろいこころで利用ください。
やっていること
- 入力されたURLをもとに、そのブログの全エントリを取得。archiveのページからスクレイピングで全エントリを取得しています。スクレイピングはPythonのBeautifulsoupを利用しています。
- はてなのAPIからブックマーク数とスター数を取得。
- SharedCount: Social URL AnalyticsのAPIからTwitter・Facebook・Google+の情報を取得。
- 各エントリのブックマーク数からHatena-Indexを計算。
- htmlで整形。グラフはccchartというライブラリを、テーブルはTwitter BootstrapとjQuery plugin: Tablesorter 2.0を使用しました。
ソースコードは以下においています。
otani0083/hatenaindex · GitHub
Google app engineのタイムアウト設定が60秒なので、検索して60秒超過すると500エラーが生じます。もうちょっと自由度の高い環境であれば全エントリを対象にした結果を表示できそうです。さくらVPS解約したばかりですが…。
高速化・ほかのブログサービスへの対応・全件を対象とした処理・ランキング表示などは、もうちょっと自分の技術力があがったら対応したいと思います。
Google app engineの無料枠であと6つ作れるので、次はなにを作りましょうかね。
時空間情報をマッピングするOmeka+Neatline #しぶ旅
2013/08/09
さくらVPSのお試し期間終了にともない、構築したサイトも閉鎖しました。
メールマガジン人文情報学月報 [まぐまぐ!]のイベントレポートで使われていたり、id:haseharuが使いやすいと言っていて、気になっていたOmekaとNeatlineを使ってみました。
今回の直接的な切っ掛けはOmekaに対するつぶやきに対してid:kitoneから"やろうぜ #しぶ旅"といったコメントを貰ったことで、先週末友人9人でいったしぶ旅(福岡→長崎旅行)の写真をマッピングしてみることにしました。アイディアや写真ありがとうございます。
作成したWebサイト
Neatline
http://www32039ue.sakura.ne.jp/omeka/neatline/show/shibutabi
Omeka
http://www32039ue.sakura.ne.jp/omeka/
公式情報
Omekaの公式サイト情報の和訳がありますので下記をご覧ください。
Omekaについてのご紹介 - 変更履歴 はてな版
Omekaはオンライン展示や歴史・地理の教材を作るのにも利用できそうなCMSで、Neatlineは地理情報や時系列情報を可視化するためのOmekaプラグインです。
Neatline.org | Neatline in Actionのデモは面白いので是非。
手順
1.ローカル環境にインストール
Omekaをインストールしてみる - 変更履歴 はてな版の情報を参考にまずはhttp://www.mamp.info/en/index.htmlというソフトを使って、Mac上でOmekaを利用してみました。この段階では先のインストール手順に従えば特に問題なく動作しました。
2.さくらVPSの設定
ローカルで動かして問題なさそうだったので、さくらVPSの1GBをとりあえず契約してみました(月額1000円)。クレジット払いにしておけば2週間お試しで利用できます。Omekaを利用するだけなら、PHPとMySQLが使えればいいのでもっと安い選択肢*1がありますし、その方が設定することも少なくてお手軽です。ただ、今回はサーバー設定の勉強と余力があったら、Pythonも動かしたいということで自由度の高いさくらVPSを選択しました。
さくらVPSの設定あたりは以下の情報などを参考に行いました。
3.Omekaのインストール
1.と同様の方法で行ったのですが、ここで躓きました。
というエラーがでます。
mod_rewriteのエラーでリダイレクトがうまくいっていないみたいですが、mod_rewriteというApacheのモジュールはインストール・有効化されている、公式のドキュメントにある.htaccessファイルはアップロードされていると、ここで小一時間悩みました。結論としてはApacheのAllowOverrideが有効になっていなかったので、これを"None"から"All"に切り替えて解決しました。
項目を入力していくだけでインストール完了です。
その後、画像サムネイルを表示させるために、ImageMagicをインストール。デフォルトではjpegに対応していなかったので、http://www.ijg.org/からlibjpegをあらかじめインストールしておく必要がありました。
4.Neatlineのインストール
OmekaのプラグインフォルダにNeatlineと時系列情報を扱うNeatlineSimileというウィジェットをアップロードして完了。
あとは特に設定などしなくても項目を入力していくだけで冒頭に挙げたようなページが作れます。
サーバーの設定やインストールで躓いたのですが、半日程度で作成できました。
おわりに
OmekaのOAI-PMH Harvester - library labs
OAI-PMH関連のプラグインもあるみたいなので、もうちょっと遊んでみるつもりです。さくらVPSのお試し期間が10日ほどで切れるので、それ以降に継続するかは検討中です。折角だからようこそ - CKAN日本語とかも使ってみたいところ。
*1:例えばエクストリーム ライトプランで月額231円
論文紹介:行動は言葉より雄弁である:リサーチエクスペリエンス改善のための大規模ログ分析
Summonでどのようなアクセスログの分析が行われているのか"The Relevance Metrics Framework"という分析ツールの紹介と
それによって行われたSummonの機能向上を中心に訪問されています。
Code4Lib Journal Vol.21掲載の論文で、執筆者3名はSummonの開発チームのメンバーです。
例によって貧弱な英語力で読んでますので、誤りなどあればご指摘いただければ幸いです。
Code4Lib Conference 2013でも同様の内容で発表されていて、スライドと映像が公開されています。
映像
Actions speak louder than words: Analyzing large-scale query logs to improve the research experience | code4lib
スライド
Actions speak louder than words: Analyzing large-scale query logs t...
構成は
Actions Speak Louder than Words: Analyzing large-scale query logs to improve the research experience
1. Introduction
2. Web-scale discovery systems
3. The Relevance Metrics Framework
3.1. RMF Goals
3.2. Useful Underpinnings
3.2.1. Search Sessions
3.2.2. Clicks as a Proxy For Relevance
3.3. Dataflow in RMF
3.4. Metrics Computed in RMF
4. Gains from RMF
4.1. Data source for tools
4.2. User behavior and Insights
4.2.1 Patterns of search use
4.2.2. Optimizing default results per page
4.2.3 The nature of user searches
4.2.4 Query length and Abandonment
5. Improving RMF
5.1. Data Quality
5.2. The Implications of Simplifying Assumptions
6. Conclusions
1章
検索システム研究の伝統的な方法論、システム志向とユーザー志向のアプローチについて説明した後に、ログデータを利用したアプローチのメリットを述べています。
- 実験やユーザーテストで対象とすることができる数より、はるかに多くのユーザー対象とできる
- ログデータは実際にユーザーが行った行動なので、限定的な環境で行った実験よりも信頼できる情報である
- 調査結果をもとにシステムを変更し、その効果を計測することができる
といったことが挙げられています。*1
2章
背景としてWebスケールディスカバリサービスとしてSummonについて解説されています。SaaSのサービスであることや、セントラルインデックスを持つこと、シンプルな検索ボックスと複数のフィルター、ファセットを持つことなどがあげられています。また、この論文で述べられていることは、Summonに限らず他のサーチエンジンにも適用可能であるとも述べられています。
3章
ユーザーのリサーチエクスペリエンスを改善するための取り組みの一つとして構築したログ分析ツール"the Relevance Metrics Framework"(以下RMF)の目的・データ・測定基準が述べられています。
目的
- ユーザー行動の分析
- 検索品質の評価
- Summonの機能改善
データ
セッション*2・クエリ・クリックされた検索結果などの情報を用いています。匿名化されたセッション情報からユーザーの振るまいを、クリックされた検索結果を適合文書の代替として検索品質の評価を行っています。
4章
RMFによってSummonがどのようにかわったのかツールのデータソースとユーザーの振るまいの面から述べられています。
ツールのデータソース
オートコンプリートや関連するクエリにRMFのデータを用いています。*6
ユーザーの振るまい
検索のパターン・デフォルト表示件数の最適化・検索方法の特徴・クエリの語数と放棄の関係について述べられています。
- 検索のパターン
セッションの数は曜日によって周期的に異なる(平日に多く週末少なくなる)のに対し、セッション内での検索回数はほぼ一定です。原文Figure 4を参照ください。
- デフォルト表示件数の最適化
表示件数を多くすればユーザーは効率的に検索結果を確認できますが、送信するデータ量が多くなるので表示速度は遅くなります。Summonではほとんど上位10件までしかクリックされていないので、デフォルトの表示件数を25件から10件へと変更されました。デフォルト表示件数は各機関で変更可能にもかかわらずほとんど変更されていないことや、RMFの数値からユーザーにうけいれられていると考えられます。
- 検索方法の特徴
ほとんどシンプルなフリーワード検索が行われ、フィールド検索(クエリ単位で6%未満、セッション単位で4%未満)や演算子*7を用いた検索(2%強)はほとんど行われていません。一方でフィルタ機能はよく使用(クエリ単位で40%以上)されています。もっとも良く利用されているフィルタはコンテンツタイプです。
- クエリの語数と放棄
クエリの語数と検索やセッションの放棄の関連性を調査しました。いずれもクエリの語数が少ないほど放棄する割合が高まります。原文Figure 5・6を参照ください。さらに多くのクエリは3語以下で構成されています。これに対する改善の一つが関連するクエリの推薦であり、今後リリース予定のTopicペイン機能*8です。
5章
RMFのデータ品質や仮定を簡素化していることの意味について述べられています。
- データ品質
クローラーやプログラムによる機械的なアクセスなどは、RMFの分析をゆがめる可能性があります。一方で全てのデータを"Spam"といえるようなアクセスと実際のユーザーとのアクセスに分別するのは困難です。機械的なアクセスの特徴に当てはまるものは取り除く、判断が難しいものは"suspicious(容疑者)"タグをつけてデータは残し分析に加えることも除くことも出来るようにする、スパムを完全に取り除くのではなく分析の大勢に影響を与えないようにする、といったアプローチを組み合わせています。
- 仮定を簡素化していることの意味
セッションは、同一ユーザーによる単一の情報要求に基づく検索と仮定して、複数のユーザーが同一端末で短い間隔で検索を行った場合や、同一ユーザーが複数の情報要求に基づいて連続して検索する場合を考慮していません。クリックについてもクリックされた結果を適合とみなしていますが、リンク先を見て適合していないと分かった、本当は適合しているがクリックされなかった、検索結果でユーザーの情報要求が満たされてクリックする必要がなかった*9といったパターンが考えられます。こういった仮定に基づいた分析結果であることは配慮しておく必要があります。
6章
改めてRMFの意義やその効果、Summonの継続的な開発を行っていくことが述べられています。
-
-
- -
-
なぜデフォルトの表示件数を変更するのか、リリースが行われたときにちょっと疑問に思っていましたが、この論文でその根拠が理解できました。
全体の傾向だけでなく、各言語や機関ごとにRMFで行われている項目について比較分析ができると面白そうです。そのようなSerials Solutions社では手が回らないような機関単位のデータ分析や個別のセッションについての分析が各機関で実施できるようにデータが提供たり標準の統計ツール*10が充実することを願ってます。
*1:システム志向やユーザー志向のアプローチについては、 岸田和明. 情報検索における評価方法の変遷とその課題. 情報管理, 2011, vol. 54, no. 8, p. 439–448. 三輪真木子. 情報行動 : システム志向から利用者志向へ. 勉誠出版, 2012.などをご参考に
*2:一連のユーザーの振るまいを紐づける情報です。Summonでは90分以上の間隔が開いて無く、最大でも8時間となるように設定されています。
*3:一回も検索結果をクリックしない状況、セッションとクエリに対してそれぞれ放棄の状況を調査しています。
*4:Mean Reciprocal Rank:検索結果の評価指標です。検索結果の最上位にもっとも関連性の高い文書が表示されている状態が理想といえるので、1番上の検索結果がクリックされていれば1/1=1、5番目の結果がクリックされていれば1/5=0.2と、なにもクリックされなかったときは0とします。つまりMRRが1に近いほど良いシステムといえます
*5:Discounted Cumulative Gain:検索結果の評価指標です。複数の検索結果がクリックされることがありえますが、そのような場合の検索結果の品質を評価します。クリックされた検索結果で、上位に表示されているものに高得点、下位ほど低得点として特定を累積していきます。DCGの値が高いほどよいシステムとみなせます。
*8:原文Figure 7やSerials SolutionsがSummon 2.0を導入 ディスカバリーサービスに新たな進化no Topic Exploreの項を参照ください。Googleのナレッジグラフをイメージすればいいように思います。
*9:例えばある特定の書籍の著者情報などはクリックする必要がないといった例が論文中であげられています
*10:時間や曜日を導入している機関のタイムゾーンで設定するとか、どういったコンテンツによくアクセスされているのかといった項目が追加されないか、など標準の統計ツールにお願いしたいことはいろいろありますが
GibbsLDA++でトピック分析
なぜか唐突にブログを同時更新使用みたいな話が決まってしまったので、無理矢理エントリを書いています。
自然言語処理のトピックモデルの一つの手法であるLDAを使ってみました。
LDAについては以下のスライドが詳しいので、参照ください。
一部引用すると
・白鵬が単独首位 琴欧洲敗れる
・人は上の文を見て相撲に関係する文であることを理解できる
- 文中に相撲という単語は出てこないにもかかわらず
・単語は独立に存在しているのではなく、潜在的なトピックを持つ単語は同じ文章に出現しやすい
といったモデルです。
ギブスサンプリング*1によるLDAをC++で実装したソフトが公開されています*2。Pythonによる実装*3もいくつかありましたが、今回は研究室の人が利用しているこちらを。
インストール手順
- 以下のページからソースコードをダウンロード。
- ダウンロードしたファイルを解凍して、そのままmakeコマンドをたたくと失敗します。
- GibbsLDA++-0.2のmakeのエラーについて - Screaming Loudを参考にファイルを修正。
- 念のためmake clean したあとにmake allでインストール完了。
使い方
satomacoto: LDAの実装を試してみるを参考にして貰うのがいいと思いますが。
LDAで解析するテキストデータを用意します。以下サンプルです。
n {文書1} {文書2} {文書3} {文書…} {文書n} 文書i=単語1 単語2 単語3…単語m
形式は、1行目に解析対象とする文書数。2行目以降に1行1文書としてスペース区切りで単語を並べます。
1行目で定義した文書数より全体の文書数が少ないとエラーがおきて解析できません。
その後、ターミナルからGibbsLDA++のSRCフォルダ内にあるLDAを実行します。
src/lda -est -alpha 0.5 -beta 0.1 -ntopics 5 -niters 1000 -savestep 500 -twords 20 -dfile pyscript/result.txt
いろいろとオプションを指定しています。
主なオプションは以下のようなものです。
- -est…ゼロからLDAモデルを推定。(-estcオプションや-infオプションですでに構築したモデルを利用することもできます)
- alpha・-beta…LDAの為のパラメータ。アルファのデフォルト値は50/K(Kはトピック数)。
- -ntopics…分割するトピック数の指定。デフォルトは100。
- -niters…ギブスサンプリングの試行回数。デフォルトは2000。
- -savestep…指定した回数ごとに結果を保存。デフォルトは200。
- -twords…各トピックの特徴語を出力する個数。
- -dfile…データファイルの指定。実行結果も同じ場所に保存されます。
実行するとsavestepで指定したステップごとに5つのファイルが出力されます。
- model-name.others…αやθなど各パラメータ
- model-name.phi…トピックごとの単語の出現確率。
- model-name.theta…文書ごとの各トピックである確率。
- model-name.tassign…文書ごとに単語ID:トピック。
- model-name.twords…各トピックごとの特徴語。
また、単語と単語IDの組であるwordmap.txtというファイルも出力されます。
CiNii Articlesでトピック分析
CiNii Articlesで"IR"を検索した結果をトピック分析した結果です。文献数10000でトピックを10個、トピックの中で特徴的な単語を5個抜き出した結果です。
Topic 0th: IR 0.007441 ), 0.007109 acid 0.007052 NMR 0.006914 )- 0.006365 Topic 1th: larvae 0.000222 superstructure 0.000188 pyrophyllite 0.000188 calculus 0.000188 Studied 0.000154 Topic 2th: HEMA 0.000325 Andosols 0.000257 anodes 0.000222 BTC 0.000222 allophanic 0.000188 Topic 3th: VC 0.000730 vitamin 0.000221 SR 0.000221 binders 0.000187 kaolin 0.000187 Topic 4th: こと 0.012453 IR 0.008112 検索 0.007279 測定 0.005234 研究 0.005169 Topic 5th: tlae 0.002876 ir 0.001369 tl 0.000600 Tlae 0.000477 [' 0.000477 Topic 6th: 無し 0.001094 タイトル 0.001094 virus 0.000421 silk 0.000320 mosaic 0.000320 Topic 7th: наклонения 0.001031 что 0.000904 на 0.000809 пересказывательного 0.000809 времени 0.000809 Topic 8th: 大豆 0.000836 煮汁 0.000393 bentonite 0.000324 ACE 0.000256 ニコチアナミン 0.000222 Topic 9th: 品種 0.012668 IR 0.009663 こと 0.006451 細胞 0.005535 抵抗 0.005449 Topic 10th: Ir 0.020523 領域 0.009596 相関 0.009087 _< 0.008022 Co 0.007744 Topic 11th: IR 0.011768 system 0.005076 using 0.004087 method 0.004012 paper 0.003056 Topic 12th: 治療 0.005279 照射 0.004992 Ir 0.004322 線量 0.002951 組織 0.001994 Topic 13th: _??_ 0.001301 ]_ 0.000807 il 0.000774 del 0.000609 passato 0.000609 Topic 14th: IR 0.030421 企業 0.010087 特集 0.008930 -- 0.008591 情報 0.007713 Topic 15th: IR 0.012067 temperature 0.005610 films 0.005380 Si 0.004885 FT 0.004631 Topic 16th: IR 0.015041 cells 0.005403 ), 0.004770 ). 0.004047 patients 0.003404 Topic 17th: SUB 0.075021 </ 0.069534 SUP 0.025550 >- 0.007334 >< 0.005725 Topic 18th: UWB 0.015344 方式 0.011665 IR 0.011287 通信 0.007707 こと 0.007389 Topic 19th: BPH 0.000755 pesticide 0.000553 Meeting 0.000453 pesticides 0.000419 Society 0.000419
IRでは情報検索なり、機関リポジトリなり、インベスター・リレーションズなり、さまざまな意味があるので、それが分類できないかなと思っていました。英語がグルーピングされてしまったので、そんなにわかりやすい結果になっていませんでしたが、Topic4や14などは検索や企業に関するトピックというのが提示されています。
*1:ギブスサンプリングについては、こちらのページなどを参照ください。PRML 11章 二変量正規分布からのギブスサンプリング
*3:Gensim:Topic modekking for humans ・PythonでLDAを実装してみる-satomacoto
ディスカバリーサービスSummonのログ分析
7月6日第30回医学情報サービス研究大会 MIS30と7月17日学術情報セミナー2013 in 福岡 「学術情報ビッグバン~情報の効率的発見と提供について~」 | 九州大学附属図書館で、「ディスカバリーサービスSummonのログ分析」というタイトルの報告をしました。
九州大学のSummonの利用ログからどのようにSummonが用いられているか、利用状況・検索クエリ・セッション・アクセスされたコンテンツから分析を行いました。
報告スライドは以下のとおりです。
多くのユーザーは日本語検索の際に、
- 検索クエリをとくにスペースなどで区切ることなく検索している
- 検索結果からクリックされるのは2つ以下
といったことを数字で示すことができたのは良かったと考えています。
(おそらく大部分は日本の)リポジトリコンテンツへのアクセスが全体の7%もあったのは意外でした。東工大のリポジトリへのアクセスが単独で全体の1%を占めているのは、工学部の学生が多い九大の状況を表していると考えています。
一方で当初知りたかったことは、検索を行って望ましい結果が得られなかったときにどのような検索クエリの修正を行うのか(あるいは諦めるのか)ということでした。今回はデータの制約もあり十分に調べることが出来なかったので、引き続き調査するつもりです。
次の機会があればSerials Solutions社を噛まずに言えるようにしたいです…。
発表後、Code4Lib JournalでThe Code4Lib Journal – Actions Speak Louder than Words: Analyzing large-scale query logs to improve the research experienceというSerials Solutionsによるログ分析とその結果を用いたSummonの改善についての論文が掲載されました。また、The Code4Lib Journal – Relevance and Phrase Searching in Summon: looking under the hoodというSummonの検索結果のメカニズムについての論文も掲載されています。
韓国の大学図書館では何が話題になっているのか 2013
昨年こんなエントリーを書きましたが韓国の大学図書館では何が話題になっているのか - よしなしごと、今年も5月に韓国済州島で全国大学図書館大会が開催されていたのでざっとプログラムを紹介してみます。
公式サイト
2013 전국대학 도서관 대회에 오신것을 환영합니다.
また、大会の講演ビデオや資料は2000年のものからほとんど全て公開されているようです。*1
전국대학 도서관 대회에 오신것을 환영합니다.
ただし、SafariやGoogle Chromeでは動作しなかったので、対応ブラウザはInternet Exploreのみではないかと思われます。
全体会
- 高等教育の革新のための対話式授業とe-Learningと図書館の役割
- Microsoftが見たITトレンド
- 大学図書館発展計画政策発表
館/課長会議
- 利用者価値中心の学術サービス
- LibQUAL+事例
- 大学図書館政策建議及び自由討論
実務グループ分科会
整理
- 次世代図書館目録の傾向と概要
- KERIS総合目録Linkeddata適用方法の紹介と討議
収書
- 図書定価制度*2が大学図書館に及ぼす影響
- 大学図書館収集及び蔵書管理政策の変化
- 海外電子情報サービスの利用向上及び引用索引DB比較
相互貸借
- KERIS 相互貸借運営統計分析を通じたサービス向上の検討
- 海外論文代行サービス(E-DDS)の運営方法協議
- 相互貸借の統合プラットフォーム(WILL)改善について
レファレンス・閲覧
- 大学別読書プログラムの現状・効果分析及び事例発表
- 読書プログラムとレファレンスの相互協力について
*1:去年は調査能力不足で見つけることが出来なかっただけのようです。
*2:再販制度。出版不況が深刻、活字離れに定価販売制度、韓淇皓.韓国出版界の現状.大学出版.69,2006.11.
メモ:Innovative interfaces社
Serials Solutions・Ex Librisに続いて3社目、今回はInnovative interfaces社です。日本ではそれほどなじみのないベンダーですね。日本だと早稲田がINNOPACを導入していることくらい?
例によって公式サイトや英語版WikipediaやLibrary Techonology Guide、カレントアウェアネス・ポータルの情報が中心です。
公式サイト
概要
Innovative Interfaces, Incはカリフォルニアのバークレーに本社を構える図書館システム会社である。1978年にJerry KlineとSteve Silbersteinによって設立されている。Innovativeによる最初の製品はOCLCのデータと図書館の所蔵を統合するシステムであった。
現在では、大学・公共・学校・専門図書館と館種を問わず5,640の図書館施設*1で利用されている図書館システムを提供している。*2ユーザーの中には大学・公共・学校・専門図書館とさまざまな館種の図書館が含まれている。
製品
提供する図書館システムの名称はMillenniumで、プラットフォームに依存しないJavaアプリケーションである。収書や目録、逐次刊行物の管理や、貸出ILL、電子リソース管理などの機能を備えている。また、2012年には次世代図書館システムとしてSierraを提供を開始している。
ユーザーが最も利用するインターフェイスである図書館の蔵書検索については、2007年にEncoreを導入している。ディスカバリープラットフォームであるEncoreはタグクラウドやファセット、タギングや書評などの機能を備えている。Encore Synergyでは契約しているデータベースも検索可能である。
- Sierra 次世代図書館システム
- Millennium 図書館システム
- WebBridge リンクリゾルバ
- Encore 次世代OPAC
- Encore Synergy ディスカバリーサービス
- Inn-Reach
- ArticleReach コンソーシアム内ドキュメントデリバリーサービス*3
ユーザーグループ
Innovativeのユーザーグループは独立した組織として、1991年に設立された。年次大会の開催、ユーザーによる機能強化の投票、同社のソフトウェアを利用するためのチュートリアル、スクリプト、ガイドの共有が行われている。
年譜
- 1969 South West Academic Libraries Co-operative Mechanisation Projectが英政府の出資により設立。SWALCAPはLIBERTASという図書館システムを開発し、Innovativeによって買収されます。
- 1978 Innovative interfaces, Inc設立。
- 1978 Innovative OCLC-CLSI interfaceを開発。
- 1982.1 Innovative 著者やISBNなどによる検索や会計などの機能を取り入れたINNOVACQ SYSTEM 100.を開発。
- 1985 Innovative 逐次刊行物管理のモジュールを開発。
- 1986 SWALCAP Library Servicesが私企業として設立。
- 1987 Innovative オンラインカタログモジュールINNOPACを開発
- 1991 Innovative INN-Reachシステム開発。INN-Reachはコンソーシアムの図書共同利用のためのシステムでOhioLinkで最初に導入された。
- 1992 Innovative 英国オフィスを開設。
- 1992.10 Bob Walton がInnovativeに加わる。
- 1995.8 Innovative 最初のWebベースの目録を導入。
- 1990年代後半 Millenniumの開発。
- 1997.4 Innovative SLSを買収
- 2001.10 Jerry Klineが共同創始者であるSteve Silbersteinから会社の株式購入。
- 2010.4 Neil Block becomesがInnovativeの社長となる。
- 2007 Innovative Encore導入。
- 2011.4 Innovative Sierraの開発を発表。
- 2011 Innovative Encore Synergyを導入。
- 2012.5 Innovative interfaceとSkyRiverがHuntsman Gay Global Capital と JMI Equityによる投資を行うと発表。
- 2012.8 Kim Massanaが最高経営責任者となる。
- 2013.2 Huntsman Gay Global Capital と JMI EquityがInnovative interfaceの株式を購入し、創始者であるJerry Klineも取締役を退任。
- 2013.3 Innova SkyRiverの全業務を統合。
- 2013.6 Encore ESを発表((Innovative Interfaces社が新ディスカバリーサービス“Encore ES”を発表―その新しさはどこにあるのか-
ささくれ))
参考情報
- Innovative Interfaces - Wikipedia, the free encyclopedia
- Innovative Interfaces, Inc. company profile
- http://www.wul.waseda.ac.jp/Libraries/fumi/65/65-06.html
- 米Innovative Interfaces社、新しい図書館システム“Sierra Services Platform”を発表 | カレントアウェアネス・ポータル
- E1394 - 米国情報標準化機構ISQ誌の「未来の図書館システム」特集 | カレントアウェアネス・ポータル
- 米OverDrive社とInnovative Interfaces社がAPI統合 オンライン目録から電子書籍の借り出しが可能に | カレントアウェアネス・ポータル
- InnovativeがSkyRiverの全業務を統合し、SkyRiverによるOCLCへの訴訟を取下げへ | カレントアウェアネス・ポータル
もうちょっと典拠を整理して、Wikipediaにも記事を作りたいのですが…。
*1:原文 library facilities
*2:Sierra 552libray 1,539facilities、Millennium 2,197 Library 4,107 facilities、2013年5月24日現在。Innovative Interfaces, Inc.-Library Techonology Guide
*3:米Innovative社が提供するコンソーシアム内ドキュメントデリバリーサービス“ArticleReach Direct”がOddyseyとDropboxに対応-カレントアウェアネス・ポータル