見出し画像

イグノーベル賞のその後について調べたら、フンコロガシがロボになり、ハトvsAIの議論が勃発していた

はじめに

くまちゃんです。

画像

突然ですが、みんなはイグノーベル賞って知ってる? 毎年ニュースになって、日本人もたくさん受賞しているから、知っている人も多いよね。

ノーベル賞のパロディとして1991年に創設された、世界中の独創性に富んださまざまな研究や発明などに対して贈られる賞。(中略)「裏ノーベル賞」ともいわれる。

日本大百科全書(ニッポニカ)

でも…実際のところ、こんなこと思ったりしませんか?

画像

そこで、今回は「イグノーベル賞を受賞した研究ってその後どうなってるの?」という問題について、調査してみました!


画像

今回まず調査を行う対象として選んだのは、こちらの論文。

画像

スウェーデンのルンド大学Marie Dacke氏を中心としたグループが2013年に発表した
Dung beetles use the Milky Way for orientation
(フンコロガシは天の川を方向感覚に使う)
という論文だよ。

今回は、論文を検索したり論文が引用された回数を調べたりできる『Web of Science』というデータベースを使って、この研究がどんな風に発展したか、調査を進めていくよ。


くまちゃんTips:論文の引用について

研究者が「論文」を発表した後、どんな風に評価をされるか知ってる?
ひとつの指標として、その論文がどれだけ他の人に「引用」されているかという点が挙げられるんだ。要するに、多くの人の研究の参考になっている論文は、すごいってこと!

画像
引用する論文、される論文というのはさながら親子関係みたいな感じで、基本的に論文というのはそれまでにあった研究を踏まえて作られるものだよ。

受賞論文を読んでみよう

まずは、受賞論文に敬意を払い、中身を読んでみよう。
アフリカのフンコロガシは、それまで月が無い夜でも、方向感覚を保って真っ直ぐ歩けることがわかっていた。そのため、フンコロガシは方向感覚に星空を利用しているという仮説が立てられていたんだけれど、実証されてはいなかった。
この研究では「満天の星空の下」の環境と「天の川だけが見える時」の環境をプラネタリウムで再現し、フンコロガシを歩かせることで、どちらも同じように方向感覚を保っていることを証明したんだね。
昆虫が方向感覚に天の川を利用していることを初めて実証した論文なんだ!

画像

それでは、Web of Scienceを使って、この論文が引用されている件数とその中身を調べてみよう。2025年4月29日現在136本の論文で、この論文が直接、引用されているみたい。


結果① 昼行性と夜行性の違い

2015年に発表された
Neural coding underlying the cue preference for celestial orientation
(天体を手がかりとする方位定位の選好に関わる神経コード)
は、受賞論文と同じ著者を含むルンド大学の研究チームが発表した、いわば元論文の進化版。昼行性のフンコロガシと夜行性のフンコロガシを比較して、方向感覚をつかさどる神経細胞の活動に違いがあることがわかったみたい。

画像

要約すると、昼行性のフンコロガシは、昼夜問わず太陽をコンパス代わりにしているのに対し、夜行性のフンコロガシは、夜になると同じニューロンが「偏光」(光波の振動方向の規則性)を捉えるコンパスに切り替わるんだ。

同じフンコロガシでも、昼行性か夜行性かで、方向を捉えるメカニズムが違うんだね。
朝方人間と夜型人間でも差があるのかな…?


結果② フンコロガシは風を読み、踊る

結果①の論文を引用している論文を調べると、2021年には、同チームがさらにこれまでの研究をまとめた
How Dung Beetles Steer Straight
(フンコロガシがまっすぐ進む方法)
という成果を発表しているよ。

結果①の内容に加えて、太陽が真上にある正午付近では、太陽の位置で方向を定めることが難しいため、「風向き」も参考にしていることがわかったんだって。
また、フンコロガシがフンを転がし始める前に見せる、「ダンス」のような仕草にも着目しています。このダンスで周囲の状況をスキャンして、何らかの方向の手がかりを見つけているのではと推測されているよ。

画像

フンコロガシは漠然とフンを転がしているのではない。目的をもって、効率的に、フンを転がしているのだ!

なお、今後の展望として、動物の方向感覚や移動のメカニズムを理解することで、人工の光が夜行性生物に対して与える悪影響を軽減させる取り組みにつながるのではないかと述べられているよ。生き物の生態を守るために、重要な指摘だね。


結果③ フンコロガシ型ロボットの可能性

結果②の論文を引用したものにこんな論文もありました。
Nature's All-in-One: Multitasking Robots Inspired by Dung Beetles
(自然のオールインワン:フンコロガシにヒントを得たマルチタスクロボット)

2024年にタイのVISTECという大学院大学の研究チームは、なんと、フンコロガシにヒントを得たロボット(ALPHA)を作ってしまいました! 本当に、6本足を使ってボールを転がしています。

プラスチックのボールに荷物を入れることで、捜索救助の生存者に食料や医薬品を届けたり、限られたスペースでの輸送に役立てられる可能性があるらしい。めちゃくちゃ実用的だ!


画像

画像

もうひとつ、イグノーベル賞を受賞した論文について調べてみよう。

画像

元論文は慶應義塾大学の渡辺茂氏らの1995年の研究
PIGEONS' DISCRIMINATION OF PAINTINGS BY MONET AND PICASSO
(モネとピカソの絵画をハトが識別する)

受賞論文を読んでみよう

この研究の内容をかいつまんで説明すると、ハトを訓練することで、ピカソの絵とモネの絵を区別できるようになったんだって!
方法としては、ランダムに絵画を表示し、正しい絵画が表示されている時に、ハトがキーをつつくと、餌を与えられるというもの。

しかも、訓練に使用したものではない、初見のピカソとモネの絵でも区別ができたらしい。

さらにさらに、
ピカソを見分けられるように躾けられたハトは、同じくキュビズムの画家のジョルジュ・ブラックやマティスの絵画、
モネを見分けられるように躾けられたハトは、同じく印象派のセザンヌやルノワールの絵画、
をそれぞれ区別できたらしい!
キュビズムと印象派が区別できてるってことだよね。

画像
画像は左からモネ、セザンヌ、ルノワール

このように、学習して法則性を理解することで、未知の問題に解答できることを「汎化」とか「一般化」と言ったりするよ。

これだけでもうすごい研究な気がするけど、この後どうなったんだろう…
先ほどと同じように、こちらの論文を引用している論文を調べていきます。

Web of Scienceを使って、この論文の引用件数を調べてみよう。2025年4月29日現在122本の論文で、この論文が直接引用されているみたい。


結果① 生き物はなんだかんだ「見分ける」

122本の論文の中には、ハト以外のさまざまな生き物に「見分け」をさせている研究がたくさんありました。

オーストラリアのクイーンズランド大学のWen Wu氏の2012年の論文「Honeybees can discriminate between Monet and Picasso paintings
(ミツバチはモネとピカソの絵画を区別できる)

ミツバチも区別できるの!?
ミツバチが正しい絵画を選択した場合、砂糖水の報酬を与えるという方法で実験したらしい。

正解の絵画の小部屋に入ると、砂糖水がある、というワケ。
そういう昔のバラエティ番組みたいだ。

画像

興味深いのは、モノクロ画像でも正しく判別ができたということ。ミツバチたちは、単純な色味のみを手がかりにしてるわけじゃなくて、高度な認知をしてるんだって。


さらにこのミツバチの論文を引用した論文にこんなものも。
イタリアのトレント大学のElisa Frasnelli氏らの2025年2月の論文
Rats can distinguish (and generalize) among two white wine varieties
(ネズミは2種類の白ワインを区別(そして一般化)できる)

一方、ネズミはワインを区別してた。

こちらの実験では、嗅覚を頼りに判別をしています。
しかも! この実験でも「一般化」に成功している。
飲んだことがない、ワインも区別できるなんて、動物のソムリエ屋さん?

画像

結果② 画像診断をするハト

一方、ハトに話題を戻すと、これまた面白い進展がありました。なんと、医学関係の論文にもたくさん引用されています。

カリフォルニア大学のRichard M. Levenson氏を中心としたグループが2015年に発表した研究が、
Pigeons (Columba livia) as Trainable Observers of Pathology and Radiology Breast Cancer Images
(訓練可能な病理学および放射線学乳がん画像の観察者としてのハト)

訓練することによってハトは乳がんの画像から、良性か悪性か見分けられるようになるんだって。
スクリーンに病理画像を写して、正しい選択をするとエサをもらえるという仕組みで訓練したそう。

画像
Fig 1. The pigeons’ training environment. The operant conditioning chamber was equipped with a food pellet dispenser, and a touch-sensitive screen upon which the medical image (center) and choice buttons (blue and yellow rectangles) were presented.
出典:Levenson RM, Krupinski EA, Navarro VM, Wasserman EA (2015). Pigeons (Columba livia) as Trainable Observers of Pathology and Radiology Breast Cancer Images. PLOS ONE 10(11): e0141357. https://doi.org/10.1371/journal.pone.0141357.g001 この図は CC BY 4.0ライセンス に基づき転載しています。

こちらでもピカソとモネの実験の時みたく、「一般化」に成功、高い精度で初見の画像でも良性と悪性を区別できたんだって。
ハトが高い認知能力を持ってることがわかるね。

それだけにとどまらず、論文のまとめでは、人間がどのように病理を判別するのか、というプロセスの解明や、画像解析ツールに役立てられる可能性についても言及されているよ。

画像

結果③ ハト vs AI の戦い

さらに、結果②の画像診断の論文を引用している論文に以下のものがありました。
米国、オレゴン大学のRamón Alvarado氏が2021年に発表した論文
Should we replace radiologists with deep learning? Pigeons, error and trust in medical AI
(放射線科医をディープラーニングで置き換えるべきか?ハト、エラー、そして医療AIへの信頼)

医療倫理や認識哲学に関する論文でかなり難しいけど、「AIに画像診断を完全に任せることができるのであれば、同様に高い画像判別能力を持つハトに、その役割を託すことができるはず、だけどそうはなっていない、倫理的な課題がクリアできていないのだから、放射線の専門家の育成を止めていいことにはならない」という内容。

人命が関わる判断において、どの程度AIに判断を委ねていいのか、というまさしく今、世間で議論されていることだね。

画像

ユーモラスな研究から始まって、哲学・倫理的な命題に辿り着くとは、くまちゃんもびっくりだ…。
でも、生成AIはまさしく「汎化」「一般化」による技術らしいので、この帰結も必然なのかもしれないね。

画像


画像

考察と結論

どうだったかな。一見ただ面白いだけに見えた、フンコロガシの生態が、人工光の自然への悪影響を改善するヒントになったり、ロボット開発の参考になっていることがわかったね。

ハトの能力も、他の生物の分析の参考になったり、医学に応用できる可能性があったり、最終的に生命倫理の話題にまで発展していました。

イグノーベル賞は、ただ面白い研究を紹介しているだけではなく、ちゃんとその分野でインパクトのある、研究としても「すごい」ものに与えられているんだね。

画像

目先の役に立つ、立たない、という基準はあまり意味をなさないのかもしれません。とにかく発表してみれば、いつか誰かが、そのアイディアを元に、さらにすごいことを発見するかも。
そういった連鎖が、科学の進歩につながっているんだね。

そう、この記事も……

画像

謝辞

研究を参考にさせていただいたみなさん、どうもありがとうございました。


参考文献

  1.  Alvarado, R. (2022). Should we replace radiologists with deep learning? Pigeons, error and trust in medical artificial intelligence. Bioethics, 36, 121–133. https://doi.org/10.1111/bioe.12959

  2. Dacke, M., Baird, E., Byrne, M., Scholtz, C. H., & Warrant, E. J. (2013). Dung beetles use the Milky Way for orientation. Current Biology, 23(4), 298–300. https://doi.org/10.1016/j.cub.2012.12.034

  3. Dacke, M., Baird, E., El Jundi, B., Warrant, E. J., & Byrne, M. (2021). How dung beetles steer straight. Annual Review of Entomology, 66, 243–256. https://doi.org/10.1146/annurev-ento-042020-102149

  4. El Jundi, B., Warrant, E. J., Byrne, M. J., Khaldy, L., Baird, E., Smolka, J., & Dacke, M. (2015). Neural coding underlying the cue preference for celestial orientation. Proceedings of the National Academy of Sciences, 112(36), 11395–11400. https://doi.org/10.1073/pnas.1501272112

  5. Frasnelli, E., Chivers, B. D., Smith, B. C., Pinder, A. C., Hill, J. C., & Sovrano, V. A. (2025). Rats can distinguish (and generalize) among two white wine varieties. Animal Cognition, 28, 16. https://doi.org/10.1007/s10071-025-01937-2

  6. Leung, B., Gorb, S., & Manoonpong, P. (2024). Nature’s all-in-one: Multitasking robots inspired by dung beetles. Advanced Science, 11(2408080). https://doi.org/10.1002/advs.202408080

  7. Levenson, R. M., Krupinski, E. A., Navarro, V. M., & Wasserman, E. A. (2015). Pigeons (Columba livia) as trainable observers of pathology and radiology breast cancer images. PLOS ONE, 10(11), e0141357. https://doi.org/10.1371/journal.pone.0141357

  8. Watanabe, S., Sakamoto, J., & Wakita, M. (1995). Pigeons' discrimination of paintings by Monet and Picasso. Journal of the Experimental Analysis of Behavior, 63(1), 165–174. https://doi.org/10.1901/jeab.1995.63-165

  9. Wu, W., Moreno, A. M., Tangen, J. M., Hall, A. C., & Dyer, A. G. (2013). Honeybees can discriminate between Monet and Picasso paintings. Journal of Comparative Physiology A, 199, 45–55. https://doi.org/10.1007/s00359-012-0767-5


いいなと思ったら応援しよう!

コメント

ログイン または 会員登録 するとコメントできます。
くまちゃんのnoteです
イグノーベル賞のその後について調べたら、フンコロガシがロボになり、ハトvsAIの議論が勃発していた|くまちゃんチャンネル
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1