新聞沙汰になったことなど

タイトルは思いつかず…。まさか大谷翔平ではなく、自分の名前を全国紙の一面で見つける日が来るとは思いませんでした…。というわけで記事公開のお知らせと記録のために、1年1ヶ月ぶりの投稿です。

以下の記事をあの坂東慶太さんとの共著で執筆しました。

大谷 周平, 坂東 慶太, 論文海賊サイトSci-Hubを巡る動向と日本における利用実態. 情報の科学と技術. 2018, 68 巻, 10 号, p. 513-519, https://doi.org/10.18919/jkg.68.10_513.

この号は、特集主査が昔からの友人ということやテーマがオープンサイエンスという偶然の面白さを感じるものでした。こんなコメントも。

投稿記事はオープンアクセスになっていますので、ぜひご覧いただければ幸いです。
Altmetric Attention Scoreはこちら。
https://www.altmetric.com/details/49067679?fbclid=IwAR0DHd0ivKx4pT3m6COm5Eu0_3HUhS0e0MFeWxX_0rarhYnU-ztTO-eSf34

2018年1月にEBSCOさんのAcademic Advisory Board Meetingで香港にお招きいただいたときに、日本からの参加者ということでご一緒したのが執筆の切っ掛けです。滞在中、学術情報流通に関連するトピック、MendeleyやORCIDなどについていろいろ教えていただいたのですが、その際にSci-Hubも話題となりました。Sci-Hubのことは当然知っていましたが、ログデータが公開されていることや、栗山先生が日本からの利用状況を報告されていることなどは、その時初めて知りました。

絶対に公開できない情報ですが、所属機関で何が利用されているのか、どれくらい利用されているのか、把握できるならしておきたいなというのが、私の関心のスタート地点でした。幸か不幸か、Sci-Hubのログデータには利用者の所属機関を明らかに出来るような情報は含まれていませんでしたが。
執筆にあたって印象に残っているのは、日本からの利用の20%をOA文献が占めているといること、分析プログラム(研究データ)の整理が上手く出来なかったことです。オープンアクセス・オープンサイエンスに関わっている以上、やらねばと考えていたのですが、上手くできたとは言いがたい結果になってしまいました…。

記事公開後に朝日新聞の野中記者からコンタクトいただき、11月12日にWebで公開された記事になりました。
有料論文に海賊版サイト 国内の不正入手、127万件:朝日新聞デジタル
有料記事のため本文は読めず、「琉球大学などの解析」とあるので名前出てるかもなぁくらいに軽く考えていましたが、まさかの全国紙一面でした…。((沖縄は新聞購読のほとんどを地元2紙が占めており、全国紙で朝読めるのは日経だけです。この日も紙の朝日新聞は午後まで手に入らず、聞蔵にお世話になりました。))
大阪版が一番扱いが大きく、1面・3面の記事です。他の地方では1面に圧縮した記事とのことでした。

大阪版3面にあたる記事
研究者を誘惑する論文海賊版 高騰する購読料、大学圧迫:朝日新聞デジタル

会員登録すれば読める無料記事
論文、「海賊版」から入手横行 本来は有料、国内127万件ダウンロード:朝日新聞デジタル

さすがに影響力が大きく、掲載されたその日のうちに全国紙1紙と地元紙2紙からコメントを求められ、大学の広報部署とやりとりしながら対応することになりました。うち1紙はすでに有料記事として掲載されています。(ペイウォール…)
有料論文を無料でダウンロード 海賊版が横行、琉球大など解析 | 沖縄タイムス+プラス プレミアム | 沖縄タイムス+プラス

毎日新聞のハゲタカジャーナルのように、学術情報流通の課題が広く認知される切っ掛けとなりそうで、記事にしていただきありがたいです。しかし、今回初めて新聞で取り上げていただいて、新聞記事にDOI(に限らず典拠情報)がもっと記載されるべきと感じました。紙面の都合で難しければWeb版だけでも。朝日新聞でも以下のような前例は既にあるんですね。
今世紀末、ビール価格2倍に? 異常気象で大麦に異変:朝日新聞デジタル

スウェーデンでSci-HubをブロックをしたISPがエルゼビア公式もブロックしたり、SPARC Japan セミナー2018「オープンアクセスへのロードマップ: The Road to OA2020」でもSci-Hubに関する言及がと、記事執筆後の動きもあります。また、既存データでも私の技術力などの問題で分析しきれなかったネタがあるので、スキルを上げつつ、また、続報を書きたいです。

最後になりましたが、海賊サイトの利用分析という悩ましいテーマにもかかわらず掲載に踏み切ってくださった、南山さんをはじめとする、「情報の科学と技術」編集委員会のみなさま、いつも的確なコメントでクオリティをあげてくれた林さん、データ集計の部分で基本的なことからきちんと指摘いただいた査読者の方(上手くコメント活かせなくて申し訳ありません…)、半年に渡り全体構想から分析のアドバイス、投稿関係の諸作業、投稿後のアウトリーチ活動とお世話になりっぱなしの坂東さん、本当にありがとうございました!*1

*1:ファーストオーサーということで、各紙私の名前が出てしまいましたが、坂東さんの貢献の方がはるかに大きく、絶対に私1人では形にできませんでした。本当にありがとうございます。

パスワードで保護されたPDFをメタデータからリネーム(Mac)

10/6 追記
id:kitoneに教えてもらった方法です。
qiita.com
自分の環境では未検証ですが、確かにこれでいけそう。

  • -

自分用のメモです。もっとスマートなやり方あったら誰か教えていただけると嬉しいです。

やりたいこと

日経BP記事検索サービス*1からダウンロードしたPDFファイルをそれぞれのPDFのメタデータ情報から一括でリネームする。
f:id:otani0083:20171005081834p:plain
ダウンロードした時のファイル名です。ファイル名を見ても内容が分かりません。
f:id:otani0083:20171005082031p:plain
それぞれPDFにはきちんとメタデータが埋め込まれています。メタデータのタイトルと作成者からを利用してPDFファイルをリネームすることです。

作業手順

AutomatorPythonを使います。

  1. Mac標準アプリのAutomatorメタデータを抽出。
  2. Automatorの新規文書、Workflowの作成から、フォルダの指定、フォルダの中身を取得、PDFのメタデータを取得、テキストファイルに書き出しを組み合わせ。
  3. 以下のようなテキストファイルが出来るのでPDFと同一フォルダに保存。
  4. テキストファイルのメタデータを元にPythonを使ってPDFをリネーム。

スクリプト

import os
files = os.listdir('./')#現在のフォルダに含まれているファイル名一覧を取得
file_name={}
with open ("****.txt") as f:#Automatorで出力したファイルを指定
    for i,v in enumerate(f.readlines()):#行数とファイル名を出力
        x=i%3
        if x== 0:
            key=v.strip()#現在のファイル名をキーに
        elif x==1:
            try:
                value=v.strip().split('\t')[0]+"_"+v.strip().split('\t')[1].replace("日経BP社 ","")#メタデータから抽出したタイトルと作成者情報を値に。
            except:
                pass#データ区切りの改行はスキップ
        else:
            file_name[key]=value

for i in files:#現在のフォルダにあるファイル一覧をループで全件処理
    try:
        os.rename('./'+i,'./'+file_name[i]+'.pdf')#現行ファイル名をもとに、ファイル名を値に変更
    except:
        pass#変換対象ではないデータの場合はスキップ

実行結果

f:id:otani0083:20171006103319p:plain

雑感

AutomatorPython2つ使う必要があるので、出来れば一本にまとめたいところです。
雑誌毎に微妙にメタデータの書き方が違うので、それを考慮するともうちょっと分かりやすいファイル名に出来ますが、とりあえずの目的は達成ということで。

作業手順1
f:id:otani0083:20171005082425p:plain
作業手順2・3
f:id:otani0083:20171005082609p:plain

*1:某大学で非常勤講師をやる最大のメリットは図書館及びその電子リソースが使えることだなぁと。大宅壮一東洋経済日経BPとかなり充実しているので

琉大図書館用のChrome拡張を作りました

Extension for Univ. Ryukyus LibraryというChrome拡張機能を作成しました。業務用に作った物ですが、Chrome Webストアで公開しています。

chrome.google.com

機能は以下の5つです。

  • 文字列を選択した状態で右クリックのコンテキストメニューを開くとワンクリックで琉大のOPAC、沖縄文献情報データベース、CiNii Books、CiNii Articlesの検索が出来ます。
  • Amazon・honto・丸善Knowledge Worker・沖縄県立図書館の図書詳細画面で琉球大学の蔵書を確認出来ます。Knowledge Workerでは検索結果一覧画面でも機能します。(ISBNのある本限定、カーリルAPIを利用。)
  • PubMed検索結果画面で、PMIDにリンクリゾルバへのリンクを付与します。
  • CiNii Articlesの詳細画面で、掲載雑誌の沖縄県内所蔵館を表示。(CiNii Books APIを利用)。
  • 新規タブを開くと琉大図書館の写真がランダムで表示。

f:id:otani0083:20170929154554p:plain
Knowledge Workerでの動作画面

この機能を順番に操作しているだけの動画です。

Extension for Univ. Ryukyus Libraryの機能説明

作成動機など

そもそもは職場で構築している沖縄文献情報データベース*1をもっと使いやすくできないかというものでした。論題をMecabを使って単語に分割し、頻出単語を中心にWordCloudを作ってみたりしてました。
BIDOM Wordcloud
その一環として、コンテキストメニューからBIDOMを検索できると便利かなと思って拡張機能を作ってみました。拡張機能開発は想像していたよりも手軽にできたので、他にも幾つか自分が欲しかった機能を実装してみたものです。

例えばAmazonでカーリルAPIを使って、図書館の所蔵情報を表示するような拡張機能は幾つかあります。
Libron - Chrome Web Store
その本、図書館にあります。 - Chrome Web Store

しかし、私がよく使うhontoに対応した拡張機能は知りませんでした。他にも職場の選書では丸善のKnowledge Workerを利用したりします。*2また、沖縄県立図書館は沖縄関係資料ではかなり細かく目次情報を入力しています。そのため、人文系の研究をしている同僚から沖縄県立図書館OPACで資料を探した後に職場のOPACで所蔵をチェックするといった話を聞いていたので、県立図書館のOPACにも対応してみました。*3

今後について

リファクタリングできたらソースも公開します。現状は電子書籍の契約状況には対応していないので選書ツールとして使うためにも、OPACに登録している電子書籍の状況は把握できるようにしたいです。

他にはページ中のDOIをもとにリンクリゾルバとoaDOIの結果を表示する機能とか作れると便利かなと考えています。
cheb.hatenablog.com
chrome.google.com
chrome.google.com

参考にした記事

qiita.com
qiita.com
stackoverflow.com

id:haseharuさんの2つの拡張機能も大分コードを参考にさせて貰いました。
haseharu.hatenablog.com
chrome.google.com

最後になりますが、API提供機関(カーリル・NII)のみなさま、どうもありがとうございます。

*1:通称BIDOM、CiNii Articlesに収録されていないような雑誌を中心に沖縄関係の文献を登録しています。現在約18万レコード

*2:カートに入れておいてcsv出力、Excelで加工して図書館システムに一括登録みたいな使い方をします。

*3:複雑な話ですが…。いつか県立図書館がオープンデータで公開してくれないかなということを期待してたり

韓国の大学図書館で何が話題になっているのか? 2017年版

開催から大分経っていますが、今年も。
2017年6月22日-23日。청주で開催されています。
公式サイトは以下。
2018 전국대학 도서관 대회에 오신것을 환영합니다.

分科会は去年まで相互貸借とレファレンス・閲覧は2つのグループでしたが、ここはひとまとめになって図書館マーケティングが新設されてますね。

全体会

  • 基調講演1:4次産業時代に文化とは?
  • 基調講演2:4次産業革命の時代、もう一度考えてみる知識の本質と価値

館/課長会議

実務グループ分科会

整理

  • 最新メタデータの動向と目録の未来
  • 大学図書館の整理部門の組織変化
  • 【討議】収書と資料組織業務の統合について

収書

  • 2017年電子情報コンソーシアム事業計画と進捗
  • 【海外事例】主題専門司書vs機能専門司書
  • 【討議】大学図書館の評価による単行本と電子情報資源収書案について

相互貸借・レファレンス・閲覧

  • 1人メディア放送を活用した利用者教育
  • 4次産業革命と図書館空間
  • 【討議】卒業生、休学生、修了生などの特別な利用者に対する図書館サービス提供ポリシー

図書館マーケティング

電算

  • 大学機関リポジトリを中心とした学術業績データ統合管理と広報
  • DGISTデジタルキュレーション・プラットフォームの構築と運用事例
  • 【討議】機関リポジトリの構築方法と活性化方策

2日目はHathiTrust についてミシガン大学の方を招いて講演など行われていました。

気になるのは仕事柄、電算の分科会ですが残念ながら分科会の資料は公開されていなかったので、詳細は不明です。
浦項工科大学大邱慶北科学技術院の事例です。

浦項工科大学リポジトリ。Dspace。Scopusの被引用数情報を表示など。
OASIS Repository @POSTECHLIBRARY: Home
大邱慶北科学技術院のデジタルキュレーションサービス。
Digital Curation System
WoSやScopusを利用して、所属研究者の論文をお知らせしているみたいですね。


過去記事

参加メモ:泉川図書館長が教えてくれる ふるさと発見!読谷を知ろう(講座)

f:id:otani0083:20170818121519j:plain
写真は残波岬灯台です。

イベントカレンダー:泉川図書館長が教えてくれる ふるさと発見!読谷を知ろう(講座) - 読谷村
読谷に住み始めて実質3年くらいですが、あまり村の歴史などについてしらないなぁと思っていたところ、読谷村立図書館でイベントが開催されていたので参加してきました。職場が一斉休業の日というのもちょうど良かったです。夏休み企画でしたが、親子連れだけでなく、村の職員さんなんかも一般参加されていました。

スケジュール

講師の泉川館長は村史編纂室で長く勤務され、退職後に村立図書館の館長をされています。この企画も泉川さんが館長になって始められたものだそうです。以前から村の新採用職員向けに村の歴史講話やバス巡検をされていたそうです。この辺の執筆にも一部関わられているとか。

沖縄県の歴史 (県史)

沖縄県の歴史 (県史)


面白かったポイントは

  • 村役場は当時基地の真ん中だったが、村民中心の町作りをするという意思表示もこめて村の中心に作った。
  • 風水も意識している。(講話では触れませんでしたが、韓国に風水の勉強にいった職員の方もいるそうです)
  • 基地の真ん中で民間バスも走っていないので、コミュニティバスを運行した。
  • 比嘉秀平・屋良朝苗という戦後沖縄の政治家の出生地。
    • 比嘉秀平に関しては、本人が家族に累が及ぶことを恐れて資料を燃やしており、ほとんど資料が残っていない。
  • 赤犬子(あかいんこ)って人名だったんだ。赤犬子(あかいんこ) - 読谷村楚辺公民館
  • 沖縄本島北部と中南部で土壌が違い、焼き物に使われるのはもっぱら北部の土

f:id:otani0083:20170818164108j:plain
鳳計画、読谷を鳳に見立てています。中央の従事箇所に役場が。図書館や文書館などの複合施設計画があり4〜5年後のオープンを目指しているということで楽しみです。
f:id:otani0083:20170818134907j:plain
やちむんの里の登り窯、13連で稼働している中では国内最長ではということでした。
f:id:otani0083:20170818141858j:plain
やちむんの里のブーゲンビレア。村花。村魚は先日ジンベイザメに決まりました。
f:id:otani0083:20170818145936j:plain
屋良朝苗像。左右の人と腕を組むポーズだそうです。
f:id:otani0083:20170818153055j:plain
古堅国民学校跡。側に生えているデイゴは沖縄名木100選に。

f:id:otani0083:20170818164305j:plain
村史編纂室が作成した、各字毎のガイドブック。まだ全字分完成していないですが、そろった際には是非書籍化して欲しい。

普段の通勤経路にもいろいろ発見があり、大変楽しむことが出来ました。
泉川館長、村立図書館のみなさまありがとうございました。

自機関の研究者はどのジャーナルから論文を引用しているのか?

この記事ではWeb of Scienceから出力したデータを用いて、研究者が投稿した論文で引用したジャーナル情報を抽出する方法を紹介します。

大学は学術雑誌に多大な投資をしていますが、研究者が利用するジャーナルを適切に提供できているのかを知ることが目的です。(残念ながらこの記事ではそこまで調査できていません。)関係する研究としては以下の2つがあります。(id:nacomintさんありがとうございました!)

  • 気谷陽子, 歳森敦. 学術図書館における学術文献の供給可能率に関する研究. 情報の科学と技術. 2002, vol. 52, no. 9, p. 477–483. http://ci.nii.ac.jp/naid/110002829096/, (参照 2017-02-01).
  • Ishita, Emi, Watanabe, Yukiko, Yamaguchi, Ai, Oda, Takako, Higa, Yuiko, Horiuchi, Miki, Mitani, Naoya. The Ratio of Conference Papers in Citations of Engineering Dissertations at Kyushu University. Springer Berlin Heidelberg, 2012, p. 59–62. http://link.springer.com/10.1007/978-3-642-34752-8_7, (参照 2017-2-01).

Web of Scienceから分析対象のデータをテキスト形式でダウンロード、簡単なテキスト処理を行ってデータを構造化、分析という流れです。分析にはPythonを利用しています。

手順

  1. Web of Scienceにアクセスして、検索フィールド「所属機関-拡張」で「univ* ryukyu*」を検索。検索期間は2016年に。f:id:otani0083:20170228234344p:plain
  2. 検索結果一覧画面で「他のファイルフォーマットで保存」を選択。f:id:otani0083:20170228234651p:plain
  3. 最大500件まで出力できるのでレコード番号を指定、「詳細情報と引用文献」「テキスト」を選択して出力。f:id:otani0083:20170228234820p:plain
  4. 必要なデータを全て出力するまで、3.を繰り返す。
  5. Pythonでデータ処理(利用したコードは後述)。

出力したテキストデータには以下のような引用文献のデータが含まれています。Web of Scienceに採録されていないジャーナルなどからの引用も出力されているようです。

CR Butterfield DA, 1997, PHILOS T R SOC A, V355, P369, DOI 10.1098/rsta.1997.0013
Charlou JL, 2000, CHEM GEOL, V171, P49, DOI 10.1016/S0009-2541(00)00244-8
Coplen TB, 2002, PURE APPL CHEM, V74, P1987, DOI 10.1351/pac200274101987

ほかにもアブストラクトやDOI、投稿したジャーナルの出版社などの情報も取得できます。
単なるテキストデータですが、各項目の見出しが行頭に、要素の繰り返す場合は行頭が空白文字列という規則的な構成になっているので、比較的簡単にデータを構造化することができます。ただし、引用文献のデータそのものは1行1レコードの文字列に過ぎないので、さらに加工が必要です。前述のデータはカンマ区切りで著者,刊行年,ジャーナル名,巻号,DOIとなっていて扱いやすいのですが、書籍やWebサイトからの引用や巻号の構造などの要因でレコードの要素数が一定ではありません。今回はある程度割り切ってカンマで分割し、そのうちの3番目の要素をジャーナル名とみなしました。というわけで以下のすべての結果は、大まかな傾向は示しているはずですが、完全に正確なデータという訳ではありません。

結果

2016年に琉球大学の研究者が共著も含めて執筆に関わった論文数は561(2017年3月1日現在)、その論文のなかで引用されている資料数は20737。
論文単位の最小引用数は0、最大引用数は320、平均36.97、320の文献を引用しているのはWoSの分類でZoologyの原著論文([doi: 10.3897/zookeys.641.10346])でした。Pythonの機能を使って、箱ひげ図でプロットすると、320件の引用しているものは外れ値扱いされています。
f:id:otani0083:20170302161842p:plain

論文のなかで引用されていたジャーナルのTOP20とその引用数は以下の表のとおりです。

ジャーナル名 引用数
1 NATURE 268
2 P NATL ACAD SCI USA 247
3 PLOS ONE 225
4 SCIENCE 219
5 PHYS REV B 181
6 J PHYS SOC JPN 158
7 J BIOL CHEM 137
8 CORAL REEFS 129
9 PHYS REV LETT 117
10 NEW ENGL J MED 106
11 MOL BIOL EVOL 101
12 BLOOD 98
13 NAT GENET 97
14 PHYS REV D 97
15 J IMMUNOL 91
16 LANCET 88
17 BIOINFORMATICS 83
18 J AM CHEM SOC 82
19 ZOOL SCI 82
20 MAR BIOL 81


ジャーナル名称は省略形でしか出力されませんが、上位20位だとさすがに有名どころが多いですね。
Coral ReefsやMarine Biologyあたりは、自機関の特徴を表していそうです。

ただし、上位20タイトルでは引用されている資料数20737の13%程度しかカバーできず、80%までカバーするには2150タイトル必要という結果になりました。PLOS ONEが3番目に引用されているようにOAジャーナルも一定程度含まれているとは思いますが、ビッグディールの恩恵が多分にありそうです。

大学図書館でどの程度文献が提供できているか、どのジャーナルパッケージがよく利用されているか、どの程度OAの文献が引用されているかなどを明らかにするのが次の目標です。雑誌の省略形>ISSN>リンクリゾルAPIという流れでジャーナルの詳細を調べる、もしくはDOIが含まれているレコードに限定して調査すれば実現できそうです。

以下、いくつかこんなデータも出してみました。

引用文献の出版年

出版年 件数
2016 255
2015 982
2014 1283
2013 1325
2012 1287
2011 1189
2010 1088
2009 1055
2008 985
2007 891
2006 836
2005 805
2004 728
2003 632
2002 521
2001 504
2000 542
1999 462
1998 384
1997 339
1996 312

2012から2014に書かれた論文が最も引用されており、それ以前の論文は徐々に件数を減らしています。一方で1500年代から1700年代の文献の引用も確認されました。分野によってどの程度過去の文献を参照するかは傾向があるはずなのでそれを確認することや、OAになっている資料の比率なんかを調べても面白いかもしれません。2,3の論文を見た範囲ですがZoologyのなかでも分類に関連した研究は1800年代の研究もよく参照しており、
Biodiversity Heritage Libraryのお陰で利用できるという資料も多かったです。

投稿しているジャーナルの出版社

出版社 件数
1 WILEY-BLACKWELL 51
2 SPRINGER 30
3 ELSEVIER SCIENCE BV 24
4 PUBLIC LIBRARY SCIENCE 21
5 PERGAMON-ELSEVIER SCIENCE LTD 19
6 BIOMED CENTRAL LTD 17
7 PHYSICAL SOC JAPAN 15
8 NATURE PUBLISHING GROUP 13
9 SPRINGER JAPAN KK 13
10 ELSEVIER SCI LTD 12
11 LIPPINCOTT WILLIAMS & WILKINS 11
12 SPRINGER HEIDELBERG 11
13 ACADEMIC PRESS INC ELSEVIER SCIENCE 10
14 TAYLOR & FRANCIS LTD 10
15 OXFORD UNIV PRESS 7
16 AMER PHYSICAL SOC 6
17 ELSEVIER SCIENCE INC 6
18 IMPACT JOURNALS LLC 6
19 IOP PUBLISHING LTD 6
20 MDPI AG 6

Wileyがトップなのかと思いましたが、Springer、Elsevierは系列会社?で分散しているので、このあたりはまとめて集計したほうがよさそうです。ぱっとSpringer関係が一番投稿数としては多そうですね。

ソースコード

あんまり大したことはしていませんが、分析に利用したソースコードは以下からご覧いただけます。
Jupyter Notebook Viewer

こういう段階的に調査していくときにJupyter notebookはとても便利ですね。いまは環境構築も簡単にAnacondaをインストールするだけでだいたい終了です。Anacondaは以下からダウンロードできます。

Download Anaconda Now! | Continuum

EBSCO社フォーラム「アメリカにおける図書館関連テクノロジーと大学図書館の現在」2016/10/24

f:id:otani0083:20161025003348j:plain

もう半月がたとうとしていますが…。あのLibrary Technology Guides: Documents, Databases, News, and CommentaryのMarshall Breeding氏が来日するということで参加してきました。

イベントの概要ページは以下です。
EBSCO Publishing

講演概要

図書館システムのトレンドについて

まず、総合司会のMarshall Breedingより図書館システムのトレンドとして、Library Services Platform(以下、LSP)、Discovery Service、Open Sourceの現状について簡単な説明がありました。
LSPについては、Breeding氏の昨年のレポートを下敷きに紹介記事を書いているので、その2章を読んでいただければ。*1
Discoveryは従来のOPACで対象としてこなかったArticleレベルの情報やWebコンテンツなどを対象とした検索サービスといった程度でした。Open Sourceへのつなぎで、Bento styleのユーザーインターフェイスについても紹介がありました。
*2
Open Sourceの現状では、ソフトウェアライセンスではなく、データ移行やユーザートレーニング、ホスティングなどサービスの対価をえるビジネスモデルが展開されていること、図書館が利用する際にもテクニカルスタッフが必要だが、オープンソースの商用サポートを利用することによって、必ずしも増員する必要はないとのことでした。(北米ではという前提条件がつくと思いますが)

Caltech Library-Supporting 21st Century Research

Kristin Antelman氏(Caltech Library)によるOpen SourceのLSPとEBSCO Discovery Service(EDS)の導入について。

  • ILSやERMS、複数のリポジトリを、TIND - CERN spin-offというオープンソース図書館システムに統合
    • 導入にあたっては、北欧の| Invenioのサポートを受けている
    • データリポジトリもTINDを利用して運用開始予定
  • PlumXを利用した研究成果分析やDiscoveryの利用状況調査を実施中、以下のようなことが明らかになっている。
    • 情報検索についてEndNoteのような文献管理ツールへのニーズ
    • 既知検索がほとんどで主題検索の頻度は低い
    • 最新の研究動向に把握しつづけることへのニーズが高い

リポジトリでは、図書館システムと外部システムのAPIによる連携が行われており、GitHubなどから図書館を経由せずにデータアップロードが可能といったことも質疑で述べられていました。

まだ、開発中と言うことですが、TINDのOPACもシンプルでなかなかまとまったデザインですね。
'library' - Search Results - Caltech Library Catalog
紙の資料はほとんど廃棄しているということが原因かは不明ですが、ファセット機能はほとんどありませんが。Course Reservesも検索できますね。

Discovery at The University of Chicago

JAMES MOUW氏(The University of Chicago Library - The University of Chicago Library)情報検索環境の構築について。

  • EDSを導入し、Webサイトではシンプルな検索窓を提供している
  • より専門的なニーズに応えるために右側にクイックリンクとしてデータベースリスト
  • ILL用のOPACが2つ存在するなど検索システムの整理が必要
  • システムはオープンソースのLSP、Kuali OLEを利用しているが、FOLIOへの移行も検討
  • あるSTM出版社でシカゴ大からのアクセスのリファラーを分析すると、80%以上がGoogleもしくはGoogle Scholarからの利用
    • リンクリゾルバからの利用は10%程度
  • Google Scholarは専門的な研究ツールではないといった研究成果があっても、ユーザー行動はかわらないので、それを踏まえた情報検索環境を構築する必要がある

質疑のなかでは、以下のことが述べられていました。

  • ユーザーのための情報検索環境の構築では、閲覧端末や学内からか学外からかといった利用環境にかかわらず、等しくアクセスできるような環境を構築するよう心がけている
  • ユーザーにとって図書館のツールは使いにくいものもあり、講習会などトレーニングの機会を作っているが、そもそもトレーニングが不要なツール

Discovery@NYU Libraries

Nadakeen Tempelman-Kluit氏(New York University Division of Libraries
New York University Libraryの情報検索環境について。持ち時間30分のところ15分くらいで終了。

  • MetaLibからEDSへ移行
  • 図書館WebsiteでOPACの利用は42%に過ぎない
    • 質疑で何に対する42%かという質問がでたが、ちょっと回答が理解できていません。OPACへのアクセスリファラーで図書館Webサイトの占める割合ということでいいのかな…
  • ユーザーの情報検索はGoogleGoogle ScholarWikipediaであり、図書館ではない
  • ユーザーインタビューを通して図書館のユースケースを収集している
  • 図書館のUIでおこりがちなミス
    • 文献を見つけてもアクセスの部分でつまづく
    • 検索時のファセットが活用されない
    • 認証方法でが複雑でユーザーが挫折する

A New Chapter in Library Technology

Tony Zanders(EBSCO)大学図書館からEx Librisを経て、現在はEBSCOのVice President。FOLIO - The Future of Libraries is Openの紹介とコミュニティへの参加の呼びかけ。

  • 図書館関連の技術が以前より細分化されている。
  • 一方でソフトウェアの設計やホスティングは簡単になり、コストも下がっている。
  • FOLIO-オープンソースのLSP
    • 非エンジニアの図書館員でも是非コミュニティに参加し、アイディアや意見を述べて欲しい
    • プラットフォーム上の規約に沿って開発することで、サードパーティのアプリでも共通のUIが提供可能、iPhoneアプリの開発イメージ
    • ソフトウェアそのものは完全に無償、ホスティングはEBSCOがサービスとして提供を検討している。日本にもデータセンターを設置を計画
    • 現在ソースコードを公開し、2018にver1.0やアプリのマーケットプレイスを公開予定
    • 各国の事情にあわせたローカライズの必要があるので、ぜひ各国のベンダーと協業していきたい
    • Special interst Groupsという形で日本についても議論をする場を作りたい。

質疑では、FOLIOのナレッジベースとしてEBSCOのものを利用するのかGOKbのようなオープンなものを利用するのかといった質問に対して、現在コミュニティで議論をしており、日本からの情報提供なども含めて参加して欲しいとのことでした。また、オープンソースのシステムを導入するメリットとしては、コストダウンそしてカスタマイズの柔軟性が挙げられていました。

雑感

国内の主要な図書館システムベンダーもおおむね参加していたようです。
昨年、ProQuestとExLibrisの買収*3が発表された際に、EBSCOの動きについてカールグラント氏がInnovative社など図書館システムベンダーの買収を予想*4していましたが、オープンソースというアプローチで図書館システムに手を広げてきました。
今後はEx Libris(ProQuest)、EBSCO、OCLCの3社による競争ですね。

おなじくオープンソースのLSPであるKuali OLEはFOLIOと合流したプロジェクトになるのかな。2016年9月に設立されたOpen Library Foundation の支援プロジェクトとしてFOLIO、OLE、GOKbが挙げられています。*5シカゴ大のOLEからFOLIOへの移行というのもこれを受けた話なのでしょう。

言語・環境的に多くのローカライズが必要になるであろう日中韓の3ヵ国でこのイベントをやるということに、EBSCOの本気を感じました。
関心のある方はMLやSlackのチャンネルに登録してみては。
FOLIO - The Future of Libraries is Open