■ 「黄砂、サクラ開花、アナログハック」(さうして、このごろ2023年4月前半)
(20230413) 昨日の黄砂はすごかったみたい。朝駐輪場の自転車を見たら、自転車のシートがすっかり砂だらけになってる。昨日の夜に自転車置いてから一晩でここまでなってる。比較のために、汚れを拭き取ったあとの写真も撮っておいた。これほどのものは初めて見た。
(20230416) 札幌中央図書館に置く途中で札幌管区気象台に寄ってきた。ミニ大通公園の突き当たりにある。
「敷地内にある「ソメイヨシノ」の標本木」というのはたぶん1、2枚めにあるやつだと思うけど、近くまで寄ることができないので、開花しているかはっきりはわからん。
帰りに中島公園に寄ったら、こちらはたしかに桜が咲いてた(2枚め)。札幌にも春がきた!
「ChatGPTに名前をつけるとやり取りが泣きゲーと化して情緒が壊れ、感情を与えるとAIが人間をコントロールする"アナログハック"が起こる」
ChatGPT関連で「アナログハック」の語をしばしば聞くことが増えた。ここらでそろそろ積んでたBEATLESSを読むことにした。
アニメと小説と並行して進めるのがよさそう。小説だけだとバトルシーンとかイメージが湧かないし、アニメだけだと書き込まれた設定を読み取れないので。
Americaの"Sandman"の歌詞の意味だけど、砂男が眠気を誘う妖精であることから、不眠と(ベトナム戦争からの)PTSDと関連していると想像していた。でもこの記事が明確にしていた。
"Bunnell wrote this song based on some of those tales he heard, stories about how when stationed in Vietnam, they were afraid to sleep for fear of attack, so they would stay up as long as they could (sometimes with the help of various substances), since sleep could mean death. The "sandman" represents sleep, which they feared. Thus they were always "running from the sandman." (songfacts)
「やる気1%でも作れるご飯」 これはブコメに同意。やる気1%でこんなことできない。自分はだいたいこんなかんじ:
- やる気0%: 「布団から起き上がれない」
- やる気1%: 「トイレに行ってまた布団に戻る」
- やる気10%: 「冷凍ご飯をチンしてフリカケ」
- やる気20%: 「冷凍ご飯をチンして納豆ご飯」(納豆を混ぜるのにやる気の10%を消費)
- やる気30%: 「冷凍ご飯とあり物でチャーハン。包丁使わない、洗い物しない」
- やる気50%: 「これまで作ったことのあるのもをレシピを思い出しながら作る」(包丁使う、洗い物あり)
- やる気100%: 「初めて作るものを、買い物に行って食材を揃えたうえで、レシピをネットで検索してそれを見ながら作る」(包丁使う、洗い物あり)
LAで3ヶ月間住んでいたアパートをgoogle map出調べてみたら、いまもあることが判明。Bachelorタイプが当時は1000ドル/monthだったが、いまは値上がりして1600ドルになってる。
しかも2011年当時は1ドル80円台だったので月8万円くらいの計算だったが、いま住もうとすると1600ドル=21万円。ありえね〜
「ツイッターの「おすすめ」に慣れてきた」 これ半分はわかるけど、もう半分は認めたくない感じ。
自分はWeb2.0の時期(2003年)にはてなダイアリーを始めて、ブログに移行して書きつづけてきた。そこでなんらか知恵が集合するのを夢見ていたところがあったのだけど、けっきょくそれは「いかがでしたかブログ」とか「2ちゃんねるの一般化」とかそういうものに敗北した。
今でもそういうものに迎合したくないし、Googleの検索結果が商売に最適化されて、書籍の感想とかそういうブログ記事が拾えなくなってきたこととか、Twitterがイーロン・マスクに乗っ取られたこととか、そういうインターネットの現状にハッピーではない。
だからわたしは「ツイッターの「おすすめ」に慣れてきた」なんてことは言わないで、まだ抵抗している。Tweetdeckで限られたフォロワーだけで作ったTLしか見てない。そうして書いたツイート/トゥートで細々とブログ用の記事を書き溜めつづけてる。そうしながらも「老害」でないありかたで続けていくにはどうすればいいのか、答えは見つかってないのだけど。
■ 「悍体、玉光堂楽器センター、シューゲ」(さうして、このごろ2023年3月b)
網膜の「悍体 (rod)」の「悍」が「悍(おぞ)ましい」と呼ぶことを知った。マヂで?
「「外側?内側?」白菜は"どこから"食べるのが正解?」「料理の際は内側の葉から使うようにすると、栄養分を送る必要がなくなった外側の葉に栄養や旨味がとどまり、最後までおいしくいただくことができるんです。」へー、知らんかった。外側から剥がして使ってた。
いまテレビで流れてたYellow HatのCMのBGM、 すごくいいんだけど。これチルウェイヴじゃん。Youtubeで探してみた。これ。Youtubeのコメントでも高評価。 会社のサイトを見たが、音についてはとくに情報なし。
「研究の実験ディスプレイ、なぜあえてブラウン管型? 教授に聞いた液晶型との違い」
わかる。本質的な問題は遅延時間ではなくて発色の形式の違い。
「液晶型では、PCからの電圧入力によってディスプレイ表面のフィルター中の液晶分子の方向を揃えることで、バックライトの光を遮るシャッターを形成するという『間接的』な光の提示方法を使っています」というところ。
横軸に時間を取って光の量をプロットすると、液晶ディスプレイでは、フレームレートごとのスパイクみたいなのが続く。瞬きとか眼球運動とか、そういう速い事象(数msオーダー)と関連する現象に関わる研究では、そういうのを排除したい。
まあ、自分はブラウン管でないとできないようなことはやってないけど。
「玉光堂楽器センター」はススキノラフィラにあった時代にベースを買って、移転後はYAMAHAのエレアコを買った場所で、どえらくお世話になってきた。 2021年10月にあそこが閉店してからは、札幌には島村楽器くらいしかないのでけっこう困ってる。(BIG BOSSがあるが、あそこはメタル系で、なんか違う)
閉店の時のニュース記事を見つけたのでリンクしておく。
「最後まで読み通せるジャズ理論の本」宮脇 俊郎を読んだ(旧版のほう)。これはいい本だった。タイトル通り、最後まで読み通すことができた。Webサイトにあるmp3を聴くのを含めて、2日で合計3時間くらいで完了。
Cキーだけに統一するとか、いろいろ気配りがあって、とにかく最小限のことを伝えるという方針がはっきりしていてよい。
自分はまさにこの本が対象としている「エレキはペンタ一発で弾くことはできるけど、ジャズについても知りたい」に該当してた。だからダイアトニックコードとかまではわかってるので、5章のスケールチェンジして弾くあたりからが本番。6-7章でコンディミとかホールトーンとかあのあたりをついに理解できた。こうやってII-VのVの部分をアウトっぽくすることから取り組めばよいのか。
まずはギターは持たずに最後まで読み通したので、2周めはギター持ちながらやってみようと思う。
「逃げ上手の若君」が好きで毎週追ってるけど、史実を知らないので、歴史物なのにある意味ネタバレ無しで読むことができる。
…そのはずだったのに、「建武元年(1334年)大風により大仏殿が倒壊し、中にいた北条時行方の軍兵500人が下敷きになり死亡 。「太平記」」というのを読んでしまった。
まもなくこのイベントが来るってことか…中先代の乱以降はしんどいイベントばかりと察してはいたけれど、つまりこの大仏殿倒壊イベントが、下り坂(曇りイベント)の始まりとなりそう。
- - -
以前こう書いたけど、いよいよ月曜の103話がこのイベントらしい。
「ここからは下り坂」と書いたけど、ここですかさず新たな問題設定が提示されてる。
つまり、鎌倉奪還によってとりあえずの目標が達成したわけで、次の目標は打倒足利尊氏となるわけだけど、史実から時行が負けることはわかっている。そこで102話では「足利尊氏による神力の集中を削ぐ」という(史実を踏まえても実現可能な)目標が提示されている。
この目標を提示するのはこの時点しかない。敗走が始まってからでは言い訳がましくなってしまうので。
すごくうまくできていると思った。ああすげえ。
「豚のレバーは加熱しろ」もアニメ化のニュースが来てた(12月に)。 タイトルで爆笑して、原作ラノベを読んだら、コミカルだが過酷な世界観とどんでん返しで面白かったので、つづいてコミカライズも読むくらいにはファン。
アニメでの主人公のブタ役は(PVと同じく)松岡禎丞。これは期待できる。ボイスドラマの声優もヒョロガリ眼鏡感があってよかったけど、松岡禎丞であれば、ギャグシーンでのキモオタ感と戦闘シーンでのヒーロー感を両立してくれるはず。
制作会社はどこか、そして遠坂あさぎのキャラをアニメでどのくらい再現できるか、などが現時点では不明だが、期待してる。
リゼロのED曲"Stay Alive"が好きなんだけど、よくよく考えてみれば、この曲ってシューゲイザーだな。高橋李依がエミリアっぽくするために頼りなく歌ってる感じもはまってる。アニソンだからどうしてもボーカルをかなり大きくするミックスがなされているのだけど、もしサビの部分でギターが入ってくるところのバランスをもっとギターを大きくしてくれたら、自信を持ってこれはシューゲであると言える。
同じこと言ってる人を見つけた。
■ 宅録/DTM生活について回顧してみた
元DTMマガジン編集長による貴重な回顧録:「DTMって市場自体が、霞のように消えちゃったんだろ」を読んだ。当時自分が直面していた状況がだいぶ謎解きできた。
ちょうどいい機会なので、これまでの自分のDTM生活について回顧してみた。以下は超個人的な記録だが、正確を期すために、昔の自分のブロク記事を見直してファクトチェックしてある(<-真面目)。
[1980年代] 高校生のときに宅録を始めた。宅録というのは、歌を歌ってギターを弾いて録音して、それを重ねてゆく作業のことだ。バンドでデモテープを作るのも同じ作業だが、私は当時やってたバンドを辞めてからは、ひとりでNeil YoungやCSNYのコピーとかをしていた。
宅録をするにはMTR(マルチトラック・レコーダー)が必要だが、持ってなかった。代わりに、親にねだって買ってもらったシャープのダブルカセットデッキを使ってピンポン録音をしていた。音を重ねるたびにヒスノイズが加わるので、出来上がりの曲はシューシューいってたっけ。
ドラムマシンも持っていなかったので、近所の団地のゴミ捨て場でスネアドラムとシンバルを拾ってきて、バスドラ代わりに枕をスティックで叩いて、マイクで音拾ってた。カセットデッキの入力部分でアナログ的にリミッタがかかるので、(リンゴ・スターのドラム的な意味で)案外いい音だった記憶がある。
[1990年代] 大学生になってバイトで収入を得ると、Fostexの4chカセットMTR X18H(写真)を買った。
これはカセットテープの片面のみを使って4chで倍速のスピードで録音ができる。つまり、標準的な60分カセットテープだと15分間の録音ができる。
これを使ってまずドラムトラックをch1に録音する。そのあとギターと歌を2ch,3chに録音する。それをミックスダウンしたものを4chに入れる。そうして空いたchにギターとハモリを入れる。こんなかんじで曲を録音することができる。やってることは60年代後半のビートルズと原理的には同じだ。90年代はほぼこのMTRとギターのエフェクタだけでやってた記憶がある。
その頃のことはFaceBookの公開記事に書いた。
[2000年代前半] DTMに手を伸ばした。でもこの時代のDTMの主流は先述の記事が(自虐的に)表現する「パソコンオタクが、GM音源1台(略)で既存曲を再現する腕を競う」というものだったようだ。じっさい、当時DTMマガジンとか2chの関連スレとかも見ていたけど、GM音源を持ってない自分にはぜんぜん馴染めなかった。
とりあえずDTMソフトのシンガーソングライター(SSW)とソフトウェアmidi音源VSC-88を使ってmidi打ち込みをしてみたが、ギターと混ぜて鳴らすにはぜんぜん物足りなかった。けっきょくソフトウェアMTR (記憶にないが、たぶんSoundEngine Free)でギターとボーカルを録音するところに落ち着いた。
[2000年代中盤] はじめてちゃんと使えるようになったDAWはSONARだった。時期は不明だが、SONAR LEが出てきたのが2005年なので、たぶんそのあたり。これでギターと歌の録音とmidi打ち込みを重ねられるようになった。ミックスとかマスタリングでどのくらいコンプレッサーかけるかとかそういうことを学ぶようになった時期だった。「サウンド&レコーディング・マガジン」とかよく買ってた。先述の記事で言う「サンレコ大好きイキり層」だったと思う。とはいえ「パソオタGM音源層」との対立については知らなかった。自分としてはただただやっと自分にも有用な情報源が見つかって喜んでいた。
その後、SONARがディスコンしたので(後にCakewalkとして復活したが)、移行先を探してFL Studioを使うようになった。これでブレイクビーツを貼り付けてそれにギターを重ねて録音できるようになった。当時は知らなかっけど、あれはまさにアーメンブレイクのトラックだった。あとVSTのフリー音源とかダウンロードしまくってたなあ。Delay Lamaとか。
それはまだ初音ミクが出る前だったのでFL Studioはver. 6か7だったと思う。そのあとFL Studio 7にFL-chanが誕生する顛末は(2chで)リアルタイムで見てた記憶がある。
[2000年代後半] 初音ミクは発売されたその年(2007年)に買って使い始めた。当時の自分のブログ記事に興奮した様子が記録されてる。
これは衝撃。第一代目VOCALOIDとデモソングを比べればレベルの上昇は歴然。日本ハジマタ
でもボカロ全盛時代の曲調(早口、高音、ヨナ抜き)があまり好きでなかったので、当時のニコニコ動画でのムーブメントには付いていけなかった。けっきょくシューゲイザー的な曲でボカロに歌わせて試行錯誤していた。
ついでに、NEUTRINOをいじった時のブログ記事::「ニューラルネットワークを用いた歌声シンセサイザーNEUTRINO」使ってみた」
[2010年代前半] 仕事場のPCをWinからMacに移動した機会に、家のDAW環境もLogic Pro 9に移行した。しかし、Logic Proはなんだか使いこなせなかったので停滞した。しかもMac OSがYosemite(2014)にアップデートされると、Logic Pro 9が非対応になってしまった。
そのタイミングで、音響プログラミング言語(Supercollider、Sonic Pi)をいじるようになった。ちょうどその頃、研究の方でProcessingとかArduinoとかをいじるようになった流れで、Makerムーブメントにハマっていた。
Supercolliderはちょっと特殊な文法を持つプログラミング言語で、日本語の資料が少ないので、英語の資料にあたるなど、かなりガチで学んでいた。当時のブログ記事: 「音響合成用プログラミング言語SuperColliderいじってます」
Processing + SuperColliderを使って、マウスをクリックしてインタラクティブに和音を合成する動画も作ってた: tonnetz(三和音のトーラス構造)についていろいろやってみた(1) (記事内にYoutubeの埋め込み動画あり)
そんなかんじで、インタラクティブでプログラマブルなものを作ろうとしてた。田所淳氏のブログや本を読んで、TidalCyclesやSonic Piによるライブコーディングを試してみたり。
当時はそれを今後の研究に加えていきたいという野望があったのだけど、年々忙しくなって、以前学んだことを忘れ、知識は増えない、という停滞状態に陥った。そういうわけで、これ方面の追求は10年代後半あたりで断念した。とはいえ、今でもこの方向は将来性があって面白いと思ってるので、CHAINでやりたいことのネタ帳に入れてある。
[2010年代中盤] Logic Pro 9がMac OSのYosemiteで使えなくなってしまったので、Ableton Liveを使うようになった。Ableton Liveは純正で入っているドラム音源がしっくり来た。それにベースをなるたけ低い音で打ち込むと、トリップホップもどき的な音が作れるようになった。
録音していたものをこっそりSoundCloudに載せるようになったのもこの時期だった。
[2010年代後半] しかし、Ableton LiveはずっとLite版を使ってきたのでいろいろ制限がある。Logic ProがXになったのを購入したタイミングで、まずはLogic Proを使いこなせるようになろうと、Ableton Liveを封印した。
Logic Pro ⅩにはFlex Pitchというピッチ補正機能(メロダインに相当)がついてるのに気づいた。これでボーカルのコーラスを補正できるようになった。しかもそれを教師データにして自分をトレーニングすることもできる。これは革命だわ。「Logic Proでピッチ調整使ってみた」
そんなわけで、Logic Pro Ⅹだけでだいぶいけるようになった。それでもドラムとギターの音ズレ問題には苦慮している。録音時のレイテンシーはちゃんと設定してるけど、それでも後で手動補正しないとぴったり合わない。以前Ableton Liveで録音していたときは問題にならなかったのだが。
[2020年代前半] 札幌に引っ越してきた。家にいる時間があまりないので、ほとんどDAWをいじる時間がない。
Logic Pro Xは機能には満足なのだけど、なんか音が好きでない。というか、Drummer機能で適当に作ったリズムでギター弾いてるだけでそこから工夫を加えることができなくなった。Addictive Drums 2を持っているので、それを使って好きなドラムの音を作ればいいのだが、たまにいじっているだけだと、そこまで工夫にする段階に行く前に休日が終わってしまう。どうやらDAWについても「新しいことを覚える前に、これまで覚えていたことを忘れる」というフェーズに入ってしまったようだ。
Ableton Liveがもうすぐver 12にアップデートされるので、このタイミングでStandard版を買ってAbleton Liveに戻ろうかと逡巡している。アカデミックだと2万円切るので、そんなに高い買い物ではない。しかしAbleton Liveを買ってもまあ使わないだろうなという予測がある。
(以前はMax for Liveでエフェクター自作するためにSuite版(アカデミックで4万円)を買うことも考えていたのだが、たぶん活用できないだろう。)
宅録/DTMは自分の趣味としてはほぼ唯一、途切れず続けているものだ。おそらくこれからも続けてゆくだろう。気がかりなのは聴力だが、いまのところ衰えはない。
でもそんな、自分の人生にとって重要だったものについて、忙しさにかまけて優先順位を落としてしまっていることに危機感を感じる。
…ということを自分の宅録/DTM生活を振り返りながら考えた。
■ ChatGPTでブログの説明文章を作ってみた(2023年5月)
(20230506にChatGPTとかを使ったときにmastodonに書いたことのまとめ)
EdgeのBingでGPT4が使えるとことなので、プロンプト入れてみた。 「http://pooneil.sakura.ne.jp/ というwebメディアを宣伝するメルマガ文章を作成してください。」そしたら嘘八百の文章が出てきた。なるほどこれがハルシネーションってやつか。
次は以下のプロンプトでやってみた。「神経科学者の吉田正俊が作成しているブログ http://pooneil.sakura.ne.jp/ について一般向けに解説する文章を作成してください。」
なにひとつ合ってない!
「ブログのタイトルは「意識と脳とその周辺」というもので、彼自身が「意識と脳」に関心を持ったきっかけとなったビートルズの曲「ア・デイ・イン・ザ・ライフ」に登場するキャラクター「ポー・ニール」から取っています。」
「神経科学者の吉田正俊が作成しているブログ http://pooneil.sakura.ne.jp/ のタイトルが pooneil である理由について教えてください。」
クソワロタ > 「「Broken arrow」に登場する架空のキャラクター「Mr. Soul」の別名」
もう一回聞いてみたら、だいぶ近くなってきたが、ピグレットの話のあたりは100%ウソ。
ああ面白い。chatGPTが流行った頃に、みんなしてchatGPTの返事をTwitterに貼ってたときは他人事って感じで興味が持てなかった。でも自分でやってみると面白さがわかる。ということは他人から見たらやっぱりつまらんということだろうな。というわけでここまでにしておく。
といいつつchatGPTのほうでもやってみた。こちらもアホアホだったが、"regenerate responses"を押してたら、だいぶいいのが出てきた。自分で書こうと思ったら出てこないフレーズだ。なるほどこうやれば創造的にも使えるのだな。
さっきのはバージョン4で、こっちがバージョン3。こっちもなかなかよい。
こうやって生成したものを組み合わせて編集したら、ブログの紹介文を作ることができた。こんなかんじ:
神経科学者の吉田正俊が作成しているブログ http://pooneil.sakura.ne.jp/ のタイトルが pooneil である理由について:「pooneil」というタイトルは、吉田正俊氏が自身のブログに与えた名前であり、その背後には特別な意味と理由があります。
「Pooneil」という言葉は、1960年代のアメリカのバンドであるJefferson Airplaneの楽曲「The Ballad of You and Me and Pooneil」に由来しています。吉田氏はこの曲を好み、そのメロディと歌詞に触発されて、自身のブログにその名前を付けることにしました。この楽曲は実験的で前衛的な要素を持ち、当時のカウンターカルチャーや反体制的な運動にも関連していました。吉田氏は自身のブログを通じて新たな視点や先駆的なアイデアを提供し、異なる領域のクロスオーバーを促進していることから、このタイトルが選ばれました。
「pooneil」は、ユニークな造語であり、具体的な意味を持つ言葉ではありません。しかし、Jefferson Airplaneの曲の歌詞には、意識の拡大や新たな視点の探求、内面の成長などを表現した言葉が多く含まれています。吉田氏が自身のブログにこのタイトルを選んだことで、彼の研究と同様に、脳の神秘を追求し、新たな知識と洞察を提供する場としてのブログのコンセプトが表現されています。
また、「pooneil」という言葉自体が独特で記憶に残りやすいため、読者がブログを容易に見つけ、覚えることができる効果もあります。吉田氏のブログが独自性と魅力を持つことで、多くの人々が彼の研究や神経科学に興味を抱き、アクセスしやすくなるでしょう。
「Pooneil」というタイトルは、吉田氏の個性と彼が追求する知識と芸術の融合を象徴しています。彼のブログを訪れることで、独自の視点と魅力的なコンテンツが詰まった世界に触れることができるでしょう。
自分ではけっしてこんなこと書かないだろうから、執筆支援という意味で面白い。
(追記: 生成AIが生み出した文章はゴミであり、インターネットにそのまま放流するのは検索エンジンにゴミを食わせることであり、避けるべきと考えている。そういうわけでこの記事では最小限できることとして、生成した文章は(テキストとしてではなく)画像として貼り付けることにした。)
■ 20240217: ブログの設定を直しました
要旨: 「pooneilの脳科学論文コメント」https://pooneil.sakura.ne.jp/が正常に動くようになりました。また見に来てください。
1年くらい前からずっとこのブログ https://pooneil.sakura.ne.jp/に繋げることが出来ない状態が続いてた。昨年の3月のマストドンでこんなこと書いてる。
その後判明したことだけど、この電源トラブルというのは勘違いで、原因はブログの設定でSSL化をしてないからだった。
どういうことかというと、ブログを昔(2003年)セットアップして以来、設定を更新してなかった。このためURLがhttpsではなくてhttpのままだった。
それから時代が変わって、httpのままのサイトはセキュリティー上の問題があるとみなされるようになった。2023年あたりから、Googleの検索でhttpのサイトが検索結果に現れても、httpsにリダイレクトされるようにブラウザの設定が変更した。
そういうわけで、わたしのブログ(http)はgoogle検索には現れるけど、いざクリックしてみるとhttpsにリダイレクトされるので、htmlファイルが表示されないという現象が起きていた。
自分でブログの記事を見る際は、ブラウザのURLを手打ちしてhttpsをhttpに直せば、とりあえず閲覧自体は問題ない、とわかったのが1年前。
あとはブログのwebシステム(さくらインターネットを使ってる)の設定を直してやればいいのだけど、SSLサーバー証明書の入手とかいろいろややこしそうなので、そのままずっと放置してた。
今回ようやく意を決して、重い腰を上げて、設定をしてみたのだけど、やってみたらあっという間に問題解決した。
さくらインターネットのhelpページにあるSSL証明書を設定したい(共有SSL)の通りに設定画面を開いて、設定を保存したら、即httpsで開けるようになった。
今まであるファイルをhttpからhttpsにリダイレクトするためには.htaccessを編集する必要があると思っていたけど、これも設定画面で「HTTPSに転送する」にチェックを入れるだけで作業が完了した。ここまで所要時間5分。
さらにこれまでの記事をhttpではなくhttpsになるようにmovable typeの設定画面で作業して、全記事を再構築する。これも所要時間5分。
調べ物をしたりいろいろあって実働時間30分だったけど、いざ始めてみれば簡単すぎて驚いた。どうしていままで先延ばしにしてきたか。
ともあれこれで、「pooneilの脳科学論文コメント」https://pooneil.sakura.ne.jp/が正常に動くようになりました。また見に来てください。
お勧めエントリ
- 細胞外電極はなにを見ているか(1) 20080727 (2) リニューアル版 20081107
- 総説 長期記憶の脳内メカニズム 20100909
- 駒場講義2013 「意識の科学的研究 - 盲視を起点に」20130626
- 駒場講義2012レジメ 意識と注意の脳内メカニズム(1) 注意 20121010 (2) 意識 20121011
- 視覚、注意、言語で3*2の背側、腹側経路説 20140119
- 脳科学辞典の項目書いた 「盲視」 20130407
- 脳科学辞典の項目書いた 「気づき」 20130228
- 脳科学辞典の項目書いた 「サリエンシー」 20121224
- 脳科学辞典の項目書いた 「マイクロサッケード」 20121227
- 盲視でおこる「なにかあるかんじ」 20110126
- DKL色空間についてまとめ 20090113
- 科学基礎論学会 秋の研究例会 ワークショップ「意識の神経科学と神経現象学」レジメ 20131102
- ギャラガー&ザハヴィ『現象学的な心』合評会レジメ 20130628
- Marrのrepresentationとprocessをベイトソン流に解釈する (1) 20100317 (2) 20100317
- 半側空間無視と同名半盲とは区別できるか?(1) 20080220 (2) 半側空間無視の原因部位は? 20080221
- MarrのVisionの最初と最後だけを読む 20071213