論文備忘録

学士未満の学生が訓練のために気になった論文をメモしたり、読んだり、それについてコメントしてみたりするサイトです。論文ジャンルは情報系、放射線系を中心に色々になると思います。 内容の解釈や考察が間違っている可能性が多分にあります。

Concentrations of Radiocesium in Local Foods Collected in Kawauchi Village after the Accident at the Fukushima Dai-ichi Nuclear Power Station

http://www.nature.com/articles/srep28470

 

福島県川内村の農作物に残留している放射性セシウムの濃度に関する調査。川内村福島第一原発から30km以内に位置しており、非常に近い。

 

 調査の結果、放射性セシウムの基準値(100 Bq/kg)を超える野菜は4080のサンプルの内5つ (0.1%)、食用の野生の植物及びきのこ類1986の内652(32.8%) 、果物647の内8つ (1.2%)となった。

 

 この結果より、これらの食品を摂取した際の内部被曝の危険性は、一般的な被爆上限値よりも低いことが分かった。しかし、潜在的な被曝リスクは依然として残っており、該当地域の食品のセシウム濃度の傾向を明らかにするために、長期に渡る包括的な追跡調査が行われるべきである。

 

 食品の測定は、サンプルとなる食品約1kgをアクリル樹脂製の容器に詰め、NaIシンチレーション検出器を用いて行う。厚生労働省による調査では、ゲルマニウム検出器もしくは同様にNaIシンチレーション検出器を用いるとのこと。

 

 やはり2011年の事故以降、年々残留セシウム濃度は低下しているとのこと。

 

 100Bq/kgという基準値について少し調べてみたものの、これを多少超えたとしてどうこうなるという数値では全く無いように感じた(やさしおとかの方がよっぽど放射能は高い)。

 きのこ類や山菜の類は野菜や果物と比べて基準値超えのものが多い様に感じるが、どうしても野生のものなので管理が難しい。また、福島県外の道の駅で売られているきのこ類や山菜の類でも、実際に測ってみると基準値を超えていることもままあるらしい。

Preparation of paper scintillator for detecting 3H contaminant

http://www.ncbi.nlm.nih.gov/pubmed/23554426

 

 ペーパーシンチレータに関する論文。本文を確認する手段が現在ないのでAbstractのみ。

 Wipe paper(恐らくろ紙?)にゾルゲル法で作成した、液体シンチレータをカプセル化したシリカを滴下してペーパーシンチレータを作成するという研究。トリチウムに感度を持つ(弱ベータ線)。

 アブストラクトを見る限り、トリチウムからのβ線光電子増倍管を用いて検出できたとのこと。ただ、Wipe paperの透明度は恐らく低いため、感度に疑問が残る(シンチレーション光が果たして光電子増倍管までたどり着けるのか)。将来的にこの論文にアクセスできる権限を得たら再読予定。

 

 

Experimental evidence for compositional syntax in bird calls

http://www.nature.com/articles/ncomms10986

 

 シジュウカラには文章を作る能力があるという論文。鳥が好きで、数か月前にこの記事を見かけて気になっていたものの詳しく調べる機会がなかったので読んでみた。


 シジュウカラは鳴き声を組み合わせて、「警戒しろ(scan for danger)」、「集まれ(approach the caller)」、「警戒しながら集まれ」というメッセージを作ることができる。これを確かめるために以下の2つの実験を行った。

実験1 鳴き声にはABCのパターンとDのパターンが存在し、それらをスピーカーで再生して実験を行う。ABCのパターンを単独で再生した場合はシジュウカラたちは首を水平にふって周辺を警戒しだした。Dのパターンを単独で再生した場合には、スピーカーの方に集まってきた。そして、ABC-Dの組み合わせに対しては、周辺を警戒しながらスピーカーに近づいてきた。

実験2 ABC-Dの組み合わせではなく、D-ABCの音声を再生してみたところ、シジュウカラたちは上記のどの反応も示さなかった。この結果より、シジュウカラたちはABC,Dのそれぞれの要素ではなく、組み合わせの順序(note-ordering rules)を正確に認識して行動していることが分かった。

 
 チンパンジーやイルカなどの哺乳類も鳴き声でコミュニケーションを取っていると思われる行動は見られるが、正確に言語能力とまで言えるほどの能力を備えているのは、現在分かっている限り人とシジュウカラのみとのこと。自分はてっきり他にもいると思っていたので驚いた。
 シジュウカラには他にも10種類以上鳴き声のパターンを持っており、そのパターンは175種類にも上る。今後研究が進んで、まさかのシジュウカラリンガルが誕生してくれれば、バードウォッチングが楽しくなりそう。

Learning and memory under stress: implications for the classroom

http://www.nature.com/articles/npjscilearn201611

 

 教育現場におけるストレスの、特に学習と記憶のプロセスへの影響についての論文。

 ここで挙げられているストレスとは、テストや宿題、締切に加えて、クラス内での人間関係なども含んだものを指す。

 

 まずストレスを受けた後の生理的な反応が述べられている。自分へのメモとして。

「ストレスを受けるとまずANS(自律神経系)が活性され、ノルアドレナリンのようなCatecholamineが分泌され、 "fight-or-flight" responses (戦うか逃げるか反応)が引き起こされる。そしてこの反応は、脳内の学習、記憶プロセスに密接に関わりのある、海馬や扁桃体前頭葉に影響を与える。そして次に視床下部-下垂体-副腎系が副腎皮質ステロイドを放出する。これらも記憶や感情に関連する海馬等の部分に作用する。」

 

 ストレスが記憶に与える影響として、3つほど挙げており、それらをどのように調査したのかが述べられている。以下に出てくる記憶のエンコーディングとは、記憶の基本的過程のひとつであり、情報を取り込んで記憶情報として保持されるまでの「憶える」過程のことを指す。

エンコーディングよりかなり前のストレスは記憶の構成を傷つけ、エンコーディング前後のストレスは基本的にその後の記憶能力を向上させる。対照的に、思い出す過程の直前のストレスは、記憶を呼び起こす能力を損ねる(テスト等にダイレクトに影響する)。これらに加えて、ストレスは既存の知識に新しい知識を加えて統合する際にも、悪影響を与えるように思われる。

 

・記憶を呼び起こす能力への影響は、対象となる二つのグループに対して一方にストレスを与え、その後神経衰弱をやってもらうことで確認したとのこと。結果、ストレスを受けていないグループの方がスコアが良かった。

 

記憶の統合への影響に関しては、対象となる二つのグループに対して、一日目にショートムービーを見せ、二日目にムービーに関して間違った内容を含んだアンケートを配布、三日目に間違った内容がどれくらい本来の記憶に影響を与えているかを調査した。結果、ストレスを受けたグループはアンケートの影響をもう一方のグループに比べて受けていなかった(新たな情報が元の情報に統合されていなかった)。

 

 自身も教育に関しての研究を行っているが、教育に関する論文はあまり読む機会がなく、今回読んでみた。ストレスが記憶に与える影響といえばトラウマがぱっと浮かぶが、この論文を見る限りストレス与えるタイミングはうまく考える必要がありそう。

 

Virtual Planning, Control, and Machining for a Modular-Based Automated Factory Operation in an Augmented Reality Environment

http://www.nature.com/articles/srep27380

 

AR技術を用いて工場内の設備のレイアウトや工業用ロボットの操作設定等を効率的に行うという研究。

 

この研究では主目標を、

 

1.Layout Planning

 工場内の設備配置の決定

2.Industrial Robot

 工業用ロボット(マニピュレータ)の動作プログラミング

3.CNC Machining 

 CNCフライス盤等によるカットを行う際に、シミュレーション結果を材料上に表示

 

の3つとしている。実現方法としては、おなじみの正方形のARマーカを工場内の各所やフライス盤に取り付けて、画面もしくはHMDで確認しながら操作を行うとのこと。

VRによる設備レイアウトの決定とロボットの動作プログラミングを視覚的に行うものは過去に存在している。ただ、それをARにすることで、設備等の設置が完了していない段階でも、視覚的に確認しながらマニピュレータの動作をプログラミングできるとのことで、衝突問題を回避する上でメリットがあるとのこと。

AR的に斬新なことをしている印象は受けなかったが、ARマーカを5面に張り付けた操作用ボックスを使ってマニピュレータの動作を制御したり、力学的な部分とARをうまく融合させている印象を受けた。

 

CNCに関してARを既に応用しているものがあるとのことだったので調べたところ、次のような製品を見つけた。

https://shapertools.com/

 

かなり便利そう。

 

 

Gotta name them all: how Pokémon can transform taxonomy

http://www.nature.com/news/gotta-name-them-all-how-pok%C3%A9mon-can-transform-taxonomy-1.20275

 

論文ではないが社説から面白そうだったので。

ポケモンGoユーザーによって新種の生物の発見が促されるのではないかという内容。

ポケモンGoをプレイしている人は世界中に無数にいるし、彼らはポケモンを求めて様々な場所、色々な路地に入り込んだり時には茂みの中を覗くかもしれない。そして彼らの手にはスマホに搭載された高精度のカメラがあり、新種の生物を撮影して記録に残すこともできる...

 

但し、記事にも書かれている通り現在の分類学上の規則では新種を発見した際の証拠は写真だけでは不十分で、きちんと生体か標本の状態で残さないといけないとのこと。

ポケモントレーナーが新種を見つけても、それをリアルにゲットしなくてはならないし、そもそも新種かどうか分かるのは生物学者かよほどなマニアだけなのでは。

 

でも確かにポケモンGoのせいで今まで見向きもされなかったような場所が人目に触れただろうし、何か面白いものを発見した人も数多くいるかもしれない。

 

追記:

Field studies: Could Pokemon Go boost birding? : Nature : Nature Research

 同じような内容でポケモンGoがバードウォッチングを促進する?というもの。

Single-pixel three-dimensional imaging with time-based depth resolution

Single-pixel three-dimensional imaging with time-based depth resolution : Nature Communications : Nature Publishing Group

By Ming-Jie Sun, Matthew P. Edgar, Graham M. Gibson, Baoqing Sun, Neal Radwell, Robert Lamb & Miles J. Padgett

 

どんな研究か

・単画素カメラ(検知器)を利用してより安価な設備でリアルタイム3次元画像情報を取得する研究。調べてみると単画素カメラを応用した研究は2013年ごろから増えているらしく、これもその派生?。

 

重要だと感じたポイント

・レーザーによるラスタースキャンのような方法ではなく、単画素カメラと圧縮検知技術を利用して3次元画像取得システムを構築する。

・圧縮検知は光の計測を慎重に行ってデータ被りを省いて効率を高めようというものらしい。この研究ではアダマール行列を使ったパターン光を使っている。圧縮検知技術を用いることでスキャン時間が短縮できるとのこと。

・パターン光の照射にはDMD(digital micromirror device)を使用。

・対象物からの反射光をアナログフォトダイオードを使って計測し、ピークを取って復元アルゴリズムに入力して復元。

~5mまでの距離で~3mm間隔の精度を実現。

・リアルタイム検知の場合フレームレートは5Hz(600パターンの場合)。256パターンだと12Hzまで上昇。

 

コメント

・リアルタイムで3次元情報を取得するデバイスとしてぱっと浮かぶのはKinect。この研究結果とKinectの深度センサをそのまま比べると、フレームレート、解像度を比べてもKinectの深度センサの方が優秀なように思える。恐らく今後単画素カメラによる測定技術が向上していけば、赤外線レーザーによる測定よりも安価にシステムを構成できる?

・別の研究になるが、単画素カメラを使った通常の2次元カメラも開発中らしく、レンズがいらないとのこと(この研究では使っている)。ピンボケもないらしいので個人的にはそちらの方が気になる。

 

参考になりそうなURL

グラスゴーの科学者は、3Dイメージ用の単一ピクセル・カメラを作成。 | 2013-05-16 | Time-AZ

ベル研究所、レンズのない1画素カメラ実現。ピンぼけもない|ギズモード・ジャパン


www.gizmodo.jp