#NLP2024 にエア参加してみた

2024年03月16日 | Weblog
Qiitaに移しました 

言語処理学会第30回年次大会(NLP2024)
https://www.anlp.jp/nlp2024/


日程

     
3月 11日(月) 13:00- チュートリアル,本会議 第1日,スポンサーイブニング
3月 12日(火) 09:30- 本会議 第2日
3月 13日(水) 09:30- 本会議 第3日,懇親会
3月 14日(木) 09:30- 本会議 第4日
3月 15日(金)   ワークショップ

チュートリアル

面白いこと間違いないので、Amazonで岡崎さんの本を買って読みましょう。これ、すごいいい本です https://amzn.to/3IEqhzF

岡崎さんが中心になって東工大のLLM(Swallow)を作っていて、日本語トークナイザも作っていてモデルは優秀です。使いこなすにはプロンプトチューニングが必要そうだけど、技術が裏付けされたモデルと、岡崎研の発表を聞くことによって工夫とかも聞けて良さそう。

 

『チュートリアル2:デジタル・ヒューマニティーズ入門』

北本さんの話、これも聞きたかったな。。。データセットの話とか。

 

松田さんのこれもすごい聞きたかったのだが、Twitterで毎日隙を見てはSFTしてて苦労話が流れてきて勉強になります。たぶん今の私のやっていることに一番近いと思う。

本当にかゆいところまで技術紹介してくれているので、SFT入門編として一通りやってみたいですね。

 

ceekzさんのは本の紹介もされてるのでそちらを。

SNSなどのデータ分析などを長年研究されてきたし、Twitterとかの情報拡散など、ただ単にNLPをLLMの生成AIとしてしか知らない人達には、計算社会学のアプローチは面白いんじゃないでしょうか?


ワークショップ

※資料が交際されてた3者をピックアップ

 

speakerdeckで資料が公開されてて感謝。山田さんの「大規模言語モデル入門」の本は買いました https://amzn.to/43nsfOC

言語間の転移させる時の話ですが、本当はもっと詳しく聞いてみたい。対訳でSFTさせるのが有効そうなのは理解しているが、[MASK]させるのは対訳タスク以外にもやはり効いてくるのだろうか?漠然とLlama2 が英語のドキュメントとして持っている知識を日本語として理解して答えて欲しい時って、対訳がどこまで有効なんだろうか?というのとか、色々と気になる。(本当はワクワク氏とかたぬき氏と転移学習でそういうのもやりたいんだけど、まぁ私が一番役に立たないからな。。。)

ElyzaやSwallow とか日本語語彙追加のトークナイザ使っているんだけど、日本語と中国語って似ている反面、日本語に特化させる場合は逆に中国語を抜いたほうがいいのだろうか?とかElyzaの人に聞いてみたい。

 

LLMがAmazonのBedrock でお手軽にSFTできるんだけど、日本で詳しく聞くなら piqcyさんなんだよね。OpenAIもんなんだけど、70BサイズのSFTとかも速くてお手軽なんだけど、Aamazon は独自のプロセッサ使っているんでしたっけ?(とはいえ、私もBedrock の情報は追い切れていない)

最近Amazon さんが色んな会社にSFTノウハウレクチャーして色んな会社が「日本語スコアでGPT-4並みの性能のLLM開発しました!」ってプレスリリース出しちゃうのでウォッチ大変なんですよ。けどタスク特化の性能向上ノウハウは勉強になります。

 

岡野原さんの資料。

最初の5ページぐらいが一般講演用的な資料だけど、後半は研究者としての岡野原さんの資料なので、お勉強になる。

 


本会議

※『予稿集(zipファイル,428MB)はこちら(3月8日更新)からダウンロードできます.』と書かれているので、大会HPへどうぞ> https://www.anlp.jp/proceedings/annual_meeting/2024/

※気なるやつから見て随時更新します(っていうか、めっちゃ多い。。。。)

 

  • P1-6 トークナイザーの圧縮率を用いた有害コンテンツの判定法
    • なるほど面白いしトークナイザそんなに分かっていなかったので勉強になる。
    • ブロックリストじゃなくて圧縮率の高さから判定する。むかし西田氏がZIP圧縮率で文書の類似度を測っていたのを思い出すが、確かにトークナイザでの圧縮率できそうなんだけどBERTやSentenceBERTとかでドキュメントベクトル取ってクラスタリングや類似度判定みたいなものとの比較ってやっているのだろうか?気になる。
  • A2-1 大規模言語モデルは自身の Hallucination を検知できるか?
    • 検知する方法ではなくて、「自身で検知できるか?」っていう問題でこれの評価むずしいと思うんだよね。単純で面白そうだけど何気に難しいテーマな気がする。
    • 「フレーズを書き換えた」場合には自分が間違えているのか、書き換えを検知するのか、指示文に「これはあなたが生成した文です。再度自分が正しいか評価しなさい」とか書いた場合で判断が変わるだろうと思うし、色々気になる。
    • 「実験の結果,GPT-3.5 Turbo は自身の hallucination を 58.2% 検知することができ」というのが、「地理や企業に関する分野の hallucination 検知率は 80% 以上である(図の緑の部分) が,人物やエンタメに関する分野のhallucination 検知率は 40% 以下である」だそうで、ドメイン知識量によるという。
  • A2-6 大規模言語モデルに対する語彙置換継続事前学習の有効性の検証
    • 勉強になりそうなので後でちゃんと読む
  • B2-4 対訳データを用いた継続事前訓練による大規模言語モデルの翻訳精度評価
  • A3-4 LLM による合成文脈データを用いた表のエンティティリンキング
    • 論文の参考文献の参照化。
    • なるほどあんまりこれを自動化させる感覚無かったけど、よく思うのはWordで書かされた時に引用するのが面倒でなんだよな、とは思っていた。
    • エンティティ変換・選択が具体的に分かっていないけど、こういうのが現地で質問してみたい。
  • A3-5 固有表現抽出における大規模言語モデルのLoRAファインチューニングの学習設定の調査
    • Attenntion 層だけじゃなくて全結合層もLoRA使った評価。
    • rank数増やしても性能はそんなに上がらないものだと思っていたけどFFN側もTuningさせると少し効果があるんですね、ふむふむ。
    • ただ、FFNの方がパラメータ数が基本的に多いので、省メモリしたいのにあんまり省メモリにならなくなってしまう可能性もあるのでGPUメモリとのトレードオフですね。
  • C3-4 InstructDoc: 自然言語指示に基づく視覚的文書理解
  • C3-5 JDocQA: 図表を含む日本語文書質問応答データセットによる大規模言語モデルチューニング
    • これ、公開されて使えるのだろうか?ライセンス的に商用的な問題があるように見えないし。11600件のデータセットよさげ。
  • P3-18 JEMHopQA:日本語マルチホップQAデータセットの改良
  • A4-1 日本語論理推論ベンチマークJFLD の提案
  • A4-3 LLMの出力結果に対する人間による評価分析とGPT-4による自動評価との比較分析
  • A4-4 制約が異なる指示で生成された文章に対するLLM生成検出の頑健性
  • B4-2 Large-scale Vision Language Modelによる芸術作品に対する説明の生成
  • B4-3 Vision Language Modelが持つ画像批評能力の評価手法の提案
  • P4-6 多言語評価極性判定における文法・語彙知識と生成モデルの統合
  • E5-1 民事第一審判決書のXMLデータ化
  • P5-5 RAGにおけるLLMの学習と評価:FAQタスクへの応用
    • 「RAG」「LoRA」「LoRA+RAG」での比較。
    • BERT Score とかではRAGでSFTしない方が性能良さそうに見える。GPT-4 を評価者としたランキング評価(MRR(Mean Reciprocal Rank)) で測ったものは「LoRA+RAG」で性能がかなり良くなっている結果にはなっている。(その評価にGPT-4も入れて欲しかった)
    • 付録にパラメータも載ってて助かる。Rank=256 ってでかいように思えるけどそんなものなのだろうか?
  • A6-1 Swallowコーパス: 日本語大規模ウェブコーパス
  • A6-2 大規模言語モデルの日本語理解能力検証のための「本音と建前」データセットの構築
  • A6-3 ichikara-instruction LLMのための日本語インストラクションデータの作成
  • A6-4 大規模言語モデルの日本語能力の効率的な強化: 継続事前学習における語彙拡張と対訳コーパスの活用
  • A6-5 Aug AnaloGPT: 大規模言語モデルを用いたアナロジー生成によるデータ拡張
  • B6-4 人工画像を用いたText-to-Imageモデルの事前学習
  • A7-3 LLM の生成・翻訳による指示・応答データセット構築
  • C7-4 日本語社会的バイアスQAデータセットの提案
  • A8-2 llm-jp-eval: 日本語大規模言語モデルの自動評価ツール
  • A8-5 継続事前学習による日本語に強い大規模言語モデルの構築
  • P8-8 日本語タスクにおける LLM を用いた疑似学習データ生成の検討
  • P8-19 言い換え文を用いた機械翻訳の学習データの増加
  • A9-5 特許請求の範囲の自動書き換え生成モデルのための大規模データセットの構築
  • D9-5 大規模言語モデルにより生成した疑似データを用いた自由記述アンケートの自動集約
  • P9-1 大規模言語モデルを用いた病名予測の検討
  • P9-4 JMedLoRA:Instruction-tuningによる日本語大規模モデルの医療ドメイン適用
  • P9-5 ビジネスのドメインに対応した日本語大規模言語モデルの開発
  • P9-7 大規模言語モデル houou (鳳凰): 理研 ichikara-instruction データセットを用いた学習と評価
  • P9-11 RAGの連結方式および自動評価指標の定量評価
  • P9-13 Minimal-pair Paradigmデータセットにおけるトークン長バイアスの分析と改善
  • P9-18 Constitutional AIにおけるセーフティアラインメントの改善
  • P9-22 英語中心の大規模言語モデルの言語横断汎化能力
  • A10-2 自己注意機構のアテンション重みが特定の種類のトークンに集中する現象と外れ値次元の関係
  • A10-6 部分空間法に着想を得たTransformerのアテンションヘッドにおける特徴抽出
  • D10-3 Beyond ROUGE: Applying an ELO algorithm to rank model performances in summarization
  • D10-6 Polos: 画像キャプション生成における教師あり自動評価尺度
  • P10-2 LDA を使った専門用語の教師なしクラスタリング
  • P10-4 知識グラフ構築に向けた物語文の構造分析
  • P10-7 大規模言語モデルを用いたマイソクPDFからの情報抽出
    • GPT4VもGeminiVisonProも試している。
    • OCRでpdftotextやるときに座標値も与えてやるのを逆瀬川さんがpudlleocr + functioncalling でやっていたよね。
    • 今回の場合は物件の画像情報も使えるから、GPT4Vにコンテキスト与える「OCR+GPT4V」が王道かと思っていたんだけどそれはやらないのだろうか?
  • P10-9 LLMは日本語追加学習により言語間知識転移を起こすのか?
  • P10-16 一部のエンティティに紐づくテキスト情報を知識グラフ埋め込みに活用するための手法
  • P10-21 ChatGPTを用いた複数文章からの表生成
  • P10-26 Sentence-BERTと語義定義文を利用した語義間の類義判定手法
  • A11-2 大規模言語モデル事前学習の安定化
    • 事前学習の安定化で勾配爆発を抑える話。なかなか事前学習から取り組む人は少ないとは思うけど、基本的に勾配計算は softening parameter とか入れて勾配計算の発散を抑えるのはあるし、因子分解行列でもAxBの片方が発散しないように正規化をかましたりして片方の分散をある程度小さくなり過ぎないようにするとかに近いかもしれない。
  • A11-4 大規模言語モデルにおける評価バイアスの尤度に基づく緩和
  • A11-5 事前学習済みLlama2モデルを活用した言語間転移日英モデルの作成
    • 普段から気になっていたんだけど、シャッフルよりも順々にタスクこなさせた方が良い結果になっているのか。。学習率のスケジュールとかもあるし、汎用性考えたら普通は③がいいんだと思っていたので、この平均値スコアの結果だけ見ても分からないのでタスクごとのスコアを見たかった。こういうのは現地で聞かないとね。
    • アダプタ学習ではなくてFull finetuning だと思うんだけど、LoRA Adapter使った場合とかも知りたかった。
  • A11-6 言語モデルの思考連鎖的推論における探索戦略の動的変化
  • C11-6 知識志向 Mixture of LoRA Experts の構築
  • P11-8 RAGにおける小説データベースのChunk SizeとOverlap SizeとEmbeddingモデルの効果
  • P11-10 文を入力とした俳句の自動生成
    • GPT-2 をFinetuning。API使ってGPT-3.5 turbo をFTした方が良いんじゃないか?というのは気になるところ。
    • なんなら評価もGPT-4 にもやらせてみるべきだよね、とは思う。
    • 去年のNetEcoでも俳句生成の話が上がって、「これからはChatGPTに駆逐されるのでは?」という話が上がったのだが、個人的には結局俳句の評価の研究はまだまだ残ると思ったので気にはなる分野。
    • あと、俳句系の研究見るといつも思うんだけど、伊藤園の“伊藤園お~いお茶新俳句大賞”のデータって研究目的ならクロールして使っていいのだろうか? https://itoen-shinhaiku.jp/
  • P11-13 Large Language Models as Generalizable Text-to-Table Systems
  • P11-15 大規模言語モデルへの定量的推論機能の組み込み
  • P11-17 LLMを利用した文書分類のためのData Augmentation
  • P11-26 RLHFを用いた「面白い」短歌の自動生成の試み
  •  

去年のNLP2023 OKINAWA で初めて言語処理学会に参加してみたんですが、ChatGPTの流れと今の仕事の関係でNLP関連が全く無視できなくなってしまったので情報を追ってみた。

ちなみに元々2005~2010年ぐらいやっていた研究がNLPの人達と一緒にやっていたから、純粋なNLPerって分けじゃないけど研究は聞いていたし多分普通の人からしたらNLP側の人間ぐらいには詳しい方だと思うけど、深いところでNLP全然分かっていないので素人です。

あと、この数年ComputerVision やってて、純粋に画像認識の物体検出とかじゃなくて動画認識の文脈でCLIPとかBLIPとかコンテキスト理解させる特徴空間ベクトル使った方が諸々精度が良くて、単純な画像のシフト特徴量とか物体認識とかじゃダメだと思ったのが2023年にNLPに参加したきっかけです。 現にこの1年でLlaVa1.5とかGPT4Vとかが出てきてしまっているし、なんならsoraは「3次元認識まで早すぎワロタ」という点でちょっと驚きました。

 

で、
近況の自分の仕事の話はここでやめておくとして、純粋にSNSで流れてくるNLPの情報をもとに、気持ちだけNLPに参加してみました(エア参加)

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

WSL環境でsudo権限を付与する話

2022年04月11日 | Weblog

WSL2の設定を色々とやった結果,環境がぶっ壊れて色々と立ち行かなくなって,WSLを最初から入れなおしたんですよ.

 

ところがユーザ環境を消さないままやってしまったのと,最初のrootユーザの設定飛ばしたら「デフォルトが root 」みたいな状況になっちゃったんですよね.

で,

これは他の人も同じことが起きていたので,落ち着いてユーザーを作成して,root の .bashrc の最後に「su - 自分のユーザー」を書けば,次からは自動的に設定ユーザーでログインできる.

 

これで解決したと思ったところに一つ問題.

”sudoerにするの忘れた”

というね.

 

で,

Ctrl-D でログアウトすれば root に戻れるかと思ったら,WSLは丁寧にコンソール事落ちてしまい,

/root/.bashrc のファイルを改編しようと思っても権限がない.

 

しばらく放置してたんだけど,流石に,という事で調べると.

 

『Power Shell から「wsl -u root」を打ち込みます』

 

という記事を発見.

コンソールから直接Ubuntu環境にログインじゃなくて,Power Shell 経由で入るという事か.

それでも勝手に自分のユーザーにログインしちゃうんだけど,この状態でCtrl-Dすると root の状況に戻れる!!!

 

これで,usermod -aG sudo hogehoge して無事解決.

 

 

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

3060Ti GPUデスクトップマシン

2021年01月05日 | Weblog

3090が発売されてから時間が経つんですが,デカいし,高い.けどメモリ沢山.

昔から自作する時にメモ代わりにブログ書いていたんですが,自分の時間給が高くなってきたり,世の中GPUサーバが沢山当たり前のように売られるようになってきて,ほぼほぼ自作しなくなったんだすよね.

けど,過去はこんなの↓書いてました.

OGPイメージ

20万円でサーバを - やる記

今日は某君に「サーバ欲しいなら20万くらいで自分で組立てなよ.64GBメモリくらいマルチコアサーバ組立てられるでしょ??」とは言ってみたのも...

20万円でサーバを - やる記

 

 

で,

本題として,デスクトップマシンとしても,遠隔としても使えるGPUマシンが欲しい.

3060Tiよりも3080Tiの発売を待っていたけど出てきそうもないし,3060Tiがデスクトップとしてもよさそうなのでちょっと見当.

 

まずはスペック

https://technical.city/ja/video/GeForce-RTX-3090-vs-GeForce-RTX-3060-Ti

シェーダープロセッサの数  10496 4864
コア周波数         1400 MHz 1410 MHz
Boost周波数        1700 MHz 1665 MHz
トランジスタの数      28,300 million 17,400 million
消費電力(TDP)     350 Watt 200 Watt
テクスチャリングの速度   556.0 253.1

こんな感じなので,2.5倍以上の性能が3090あるわけなんだけど,

3090は25万円.

3060Tiは6~7万円で値段は4倍.

あと,3090はデカい箱じゃないと刺さらない.

3060Tiを3GPUでNVLinkできたらそれも興味あるんだけど,物理的に無理.

 

で,

一人で使うなら3090が1個積んであるマシンを30万で買うのがベストだと思うが,

参考↓(あと,今買うならRyzenだと思う) 

 

 

GeForce RTX 3090 搭載ゲーミングPC

GeForce RTX 3090 搭載ゲーミングPCについて。 厳選した最新パーツをいち早く搭載!リーズナブルでハイスペック。豊富にカスタマ...

パソコン工房【公式通販】

 

予算が限られていて,複数人で使うなら3060が2枚で20万程度のマシンを買うか,3060Tiを4個積んだマシンを買う.

 

 

で,3060Tiマシンをいくつか.

 

OGPイメージ

GA5A-F204/T - BTOパソコン eX.computer

 

BTOパソコン eX.computer TSUKUMO

 

お世話になっております,ツクモさんの【BTOモデル】eX.computer デスクトップパソコン ミドルタワー G-GEAR GA5A-F204/T  税込 ¥164,800

  • AMD Ryzen™ 5 5600X
  • NVIDIA® GeForce RTX™ 3060 Ti / 8GB (GDDR6)
  • 16GB DDR4 SDRAM (PC4-21300、8GBx2)
  • 500GB SSD (M.2規格 / NVMe接続)
  • MSI B550-A PRO (ATX)
  • Windows 10 Home

マザボのスペック見ると,PCIEx gen4 x16なんだけど,1枚しかスピード出ない.

ドスパラの3060Tiの製品も同じマザボ.

ちなみに ドスパラのGALLERIA RM5R-R36T ガレリア RM5R-R36T 3500X搭載 はCPUがRyzen 5 3500Xで 129,980 円(+税) と結構安い.

https://www.dospara.co.jp/5shopping/detail_prime.php?tg=13&tc=30&ft=&mc=9745&sn=0

 

 

OGPイメージ

GA5A-H204/XT - BTOパソコン eX.computer

 

BTOパソコン eX.computer TSUKUMO

 

同じくツクモさんの【BTOモデル】eX.computer デスクトップパソコン ミドルタワー G-GEAR GA5A-H204/XT 税込 ¥189,800

  • AMD Ryzen™ 5 5600X
  • NVIDIA® GeForce RTX™ 3070 / 8GB (GDDR6)
  • 16GB DDR4 SDRAM (PC4-21300、8GBx2)
  • 500GB SSD (M.2規格 / NVMe接続)
  • ASRock X570 Steel Legend (ATX)
  • Windows 10 Home

デフォルトは3070だけど3060Tiを選べる.(-1.1万円)

マザボも2 PCIe 4.0 x16いける(CPUちゃんと選ぶ必要あるかも..5600Xなら大丈夫?)

3スロット離れているけど,NVLinkも可能かも

これ買って,自分で3060Tiを追加するか,買う前にツクモさんに相談するのが良いかも.

*私が買うなら,構成も多少変更します
  ・電源650=>850
  ・Windows home => Pro (Homeはリモートアクセスできない)

 

 

ちなみに4GPUとかやるなら箱はSupermicro とかでちゃんと組んだ方が良いけど,結局ハイスペックになっちゃうので3060Tiを積むのがアンバランスになるよね.

参考にHPCテックさん↓

https://www.hpctech.co.jp/gpuproduct/hpct-wr17as-4gp.html

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

国際会議予稿を日本語論文として再投稿する皆様へ

2020年12月14日 | Weblog

こんにちは

しばらく(9か月)更新しない間に色々と所属が変わりました.

 

所属の話はさておき,人工知能学会の編集委員として皆様にお願いがあります.
(別に代表してお願いしているわけではないです)

 

人工知能学会論文誌では国際会議で発表した内容も論文誌として投稿する事を認めており,規定(案内2.5項)に記載の通り,「国際会議&arXiv」は多重投稿に当たらない,としています.一方で

    ※二重投稿にあたらない既発表または投稿中の論文がある場合,二重投稿の疑義を避けるために,必ず引用するとともに,論文の差異の説明を行ってください.また,該当論文を添付して投稿することができます(担当編集委員が参照します.査読者には開示されません)

 
とあります.

 

私自身は7月に編集委員メンバになったばかりで,この文言を決めた背景の詳細は分かっていないのですが,人工知能学会論文誌の論文査読したり,投稿してきた背景としては,問題点は理解しているつもりです.

 

人工知能学会のチェックリストもの良くないのですが,「学会がOKしているんだから,OKだろ」という解釈で,

 「二重投稿に当たりませんか?」 => 「はい」

ではなくて,同一内容の国際会議の予稿集があれば,それは担当編集委員にも伝えてください.もちろんダブルブラインド査読(正直現代では個人的にほとんど無意味と思ってますけど)なので,対応方法はアドバイスします.

 

「英語を日本語にすればええやろ?」
「外国から見たら日本語の論文は眼中にないやろ?」

という独自判断も危険でして,国際会議によっては,権利を会議に譲渡するものもありますし,国際会議の査読中に投稿されたら(ほとんどの場合)アウトなので,「そこがクリアされてますよね?」という確認もしたいので,国際会議で予稿集として公開されているものをそのまんま日本語論文として投稿する時には,備考に書くか,引用及び,差異の明記などをお願いします.

 

人工知能学会論文誌はとても優しいので,恐らく「一発不採録」とはせずに著者とその点を確認すると思います.なので,査読者に回してからそこの問題が顕在化する前に,ご一報ください.


追記

人工知能学会の原稿執筆案内の二重投稿の部分貼っておきます.私の指摘(人工知能学会が良くても会議側がダメな場合は二重投稿になる)もちゃんと書いてあります.

学会側で倫理委員会立ち上げて判断とかやるほど余裕は無いと思いますが,公開済みの国際会議に「著者からこんな論文投稿されてきたけど,公開しますよ」というメールぐらいはする可能性あるかも.(個人的な見解)

 

あと,これ大事な話だと思うんだけど,海外に限らず,国内研究会や全国大会も,ホームページに『投稿内容の著作権利は著者に帰属します』というのは,お互い明記したほうが良いんだと思います. 割と最近はよく見かけますし,例えば,MIRUの会議(例:MIRU2020)はとても親切で参考になります.

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

在宅勤務

2020年03月08日 | Weblog

新型肺炎拡大を抑えるために在宅勤務が進められていますが、とりあえずメモ

 

・椅子は妥協しない方が良い

あっていない折り畳み椅子使い続けて首が痛かったけど、ちょっと緩和された。とはいえニトリの1万円の椅子。それだけでも全然違った。

ワークチェア(コルテス RE) 商品コード 6620629

https://www.nitori-net.jp/ec/product/6620585s/

 

・オンラインミーティングにはヘッドセット重要

もともと出張多くて気が付いたんだけど、電話会議システムで、マイクの近くにいる人と居ない人の声の音量が全然違って超キツイ。なので、相手にも印象良く与えた方がいい。
某君が国内会議のオンライン発表練習した時に、全く音声聞こえなくて、マイク重要だなと思ったし、音声聞こえない発表は印象良く残らないので、某君のためにワザワザ土日にヘッドセットを買いに行って渡しました。

で、後日某君が持っていたヘッドホン見たらマイクついてるじゃねーかw 「え?これマイクなんですか?」と言っていたが、まぁ、、、ちなみに 外部音を遮断するのも重要なので、ちょっといいやつを複数買いました。

https://www.elecom.co.jp/products/HS-ARMA200VWH.html

定価は2万円ですが、それが7000円で売っていたので。  (某君、感謝してくれたまえ)

 

ーーーー

時間あるときに追記してゆきます

 

 

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Alienware m15にUbuntuを

2019年09月19日 | Weblog

 そこそこのGPUを積んだノートPCが必要になり,DELLのAlienware m15 を手に入れました.

 ゲーミングPCとしては有名ですね.

 

選んだ理由の一つが,本体の重さで,現状最速2080 MAX-Q を積んだものとして,2.16kgは昔Mac Book Pro (3kg) を毎日持ち歩いていた身としては軽いだろうという気持ちで.
(すみません,Letsnote 1kgに慣れて,軽くはなかったです(重くもないけど))

 

 スペックは  Core i7-9750H &RTX2080(Max-Q)

FP32が6.447 TFLOPSとかで,1070よりスペックは高い様子.

 

 さて,

ゲームやるわけでもなく,Ubunutuでの簡易的なプログラミングと実証環境が欲しかったので,ひとまずUbuntuを入れたい.

ます,Ubunutu 18 LTS Desktop のイメージディスクをダウンロードしてCDに焼くが,これはUSBでも良かったかも.

 

次にBIOSをいじってbootでCDROMを認識させて上位にあげたいのだが,,

『F2連打でBIOSに入って, Secure Bootを無効化して,RAIDからAHCIにして,boot menu は手動作成して追加しなければならないので,CD-ROMから/boot/にあるefiファイルを指定してmenuの追加.順番をWindowsの上にして再起動.』

 

大きくはまらなかったけど,F2をどれだけ叩けばよいのかってみんな悩みますよね???

(最初はF2の叩き続けるのが足りなくて苦労した)

あと普通だと,menuでCDROMが下位の方にあるか,デバイス選んだら勝手に探してくれると思ったんだけど,デバイス選んでそのデバイスの.efiファイルまで探しに行かなければならない.

しかも選んだファイルに対して,自分でmenuの名前を追加.

***(USBポートによっては給電不足で認識しないので注意)

 

だるいです.

これなら確かにSUBメモリにimgファイルを焼いた方が良いですね.

(DELLのリカバリーは今回DISKじゃなくてUSBキーなのでなるほどなって思った)

 

 

ここらへんで  参考になったページはこれ ↓

 

さて,次に

Ubuntuが起動しようとするも「nouveau」でコケるので,起動中に「e」を連打するとGRUBの編集できる.

そこで,quiet splash --- のあとにnouveau.modeset=0とnvme_load=YESを追加. で,F10で起動

 

最終的にNVIDIAのグラフィックドライバーを当てたいので,nouveauを無効化したいので. 

 

 

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ゴール10デン連ウィー休ク

2019年05月04日 | Weblog

何も考えないでダラダラ過ごすと本来予定したものが何も終わらないのでmemo

やること沢山ある気があるし,やりたかった事も沢山あったと思うのですよ

 

家のこと

・冬物のコート類の洗濯 < 後半の天気良いときに
・・日曜,晴れたので一部洗濯
・・月曜,明日から雨らしいので曇りだったけど残りのコートも洗濯

・毛布類の洗濯 < 後半の天気良いときに
・・水曜,朝晴天だったので敷き毛布を一枚洗濯(洗い始めると天気悪くなってしまった)
・・木曜,快晴(時々雷雨らしいが)だったので1枚洗濯

・植物の水やり < 毎日
・・土曜,雨なのでちょっとだけ.お酢は沢山かけた
・・日曜,晴れたのでたっぷり
・・月曜,曇りだけど水を
・・火曜,雨なので外のは少し控えめに水を
・・水曜,ちょっと枯葉を取り除いたりしつつ水やり
・・木曜,快晴なのでたっぷりと

・子供の忘れ物を帰省先に
・・レターパックは土日も配送しているらしいので郵送

・HDDレコーダの整理
・・仮面ライダーのCMを消して32話分をBDに移動
・・「秒速5センチメートル」を観て,見終わったら消去
・・USB-HDDに撮りためているのもCM消したり
・・昔のアニメ(セーラームーンR)はBDの1枚に収まるように4倍変換をする

自分の事

・髪切る < 初日 Done 

・痩せる < 毎日
・・水曜,自宅から出ずに少し食べ過ぎ気味,,やばい

・ビール控える
・・土曜,夕方の一人サイゼリヤだったが我慢
・・日曜,朝から歩いてジョナサンだったが我慢
・・月曜,家で餃子とか炒飯食べたけどビールは我慢
・・火曜,ジョナサン行ったけどやはりビールは我慢
・・水曜,家で担々麺とかビールは我慢したけど,夜1本だけ飲む
・・木曜,昼からサイゼリヤだけど暑いのでアイスティー沢山飲む.ビールは一先ず我慢
・・金曜,家で肉ばかり食べる.完全に休養日
・・土曜,昼はデニーズでハンバーグとローストビーフ

研究など

・査読論文 < 二日ぐらいで
・・土曜,一読する.引用している著者の国際会議論文も読む必要があるようだ

・自分の論文の査読対応 < これ早めに片づける
・・日曜,ジョナサンで図の修正
・・月曜,査読への返事を書き始める(書いてるうちにもうちょっとTODOが増える)
・・火曜,ジョナサンで返事書き始めるけど結構疲れてきた(進捗微妙で危機感を覚える)
・・木曜,前日全く手を付けなかったことに焦り,サイゼリヤで本気出す
・・金曜,もうちょっとだけ気になっていた図を直す.とりあえずGW中の作業はいったん止める

・そのほか < すげぇやることある気がするのでこの時間を確保しないと

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Twitter アカウントのロック

2019年05月02日 | Weblog

 

 

あれですよ,誕生日を2019年5月1日にしてみたとたんこれですよ.
(凍結前の誕生日は1890年1月1日くらいの130歳ぐらいに設定していた)

うーん,画像で書類送るの嫌なんだけど調べるとみんなちゃんと送っているんだな...

ということで封鎖していたコメント欄は復活させてみたけど,GW終わるまでは仕事に集中できるのでロックは逆に捗るかもしれない

 

ーーーー

5/02 市議会選挙の用紙を送ったら「生年月日が分からない」とrejectされ

5/03 結局パスポートの一部を画像で送ったらacceptだったんだけど誕生日が勝手に正しいのに変更されてしまった...
(再変更しようと思ったら「虚偽だったらなにかしら処置するよ」と出たのでしぶしぶ・・)

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

NVIDIA #GTC18 行ってきた

2018年09月15日 | PCネタ

NVIDIA GTC Japan に行ってきました.

 

WebDBと重なっていたので午前は東工大に行こうかと思っていたけど,1日しか行けなくなったのでこちらに専念.そして自動運転のハンズオンがまだ申し込めたので申し込み.

実言うと,ハンズオンは資料だけもらって午後はセッション聞こうかと思ったんだけど,やり始めるとやはり最後までやりたくなるし,聞きたい話は他の機会で聞くことも可能だろうと思ったので丸一日ハンズオンに行ってきました.これやるなら二日間行かないとダメだね.

さて,わざわざデジカメ持って行ったんだけど,普段使わなさ過ぎて手振れ補正も聞かないし,ここまでピントずれると思わなかったので残念なことにポスターの写真撮ったけど読み返せない...しくしく.

以下,つぶやきから

 

 

 

 

 

セミナーの一部様子.

15分ぐらい前に到着して,慌てて仮想マシンのソフトやらVPNクライアントとかを入れて作業.事前に準備内容のメールは受け取っていたんだけど,ハンズオン参加するか悩んでいたのと,直前だったので当日慌てて作業.分からなければその場で色々と教えてくれるので問題なかった.

AWSでコンパイルさせて,scpでPX2に送る. このPX2は会場にあるわけではなく,何処か忘れたけどNVIDIA社のどこかに置かれている.(VPNのゲートウェイガUKなのでUK?)

クロスコンパイルしてscpして実行ファイルを送ってPX2で走らせるのはXeonPhiみたいな感じだけど,てっきりPX2はオフロード使用もできるのかと思っていたけど,実際の利用を考えると単独で動かすシーンだけで良いのかな.

いずれにしてもちょっと欲しいPX2.色んなセンサーあるけど車いすにも付けられるし,なにかおもちゃ(PoC)を作りたい... 

 

 

ハンズオンは,,

午前中はまず環境設定と,クロスコンパイル.PX2上で物体認識のサンプルコードを動かすところまで.

午後の前半は,CNNの話と計算時間.パラメータチューニングも適当やって当たればいいって話ではなくて,層をふやすとどう計算時間が変わるのか??という話から,実際に計算時間を見積もって,自分でパラメータを決める.そのpythonコードをAWS上で計算させて,15epochぐらい計算させて結果を確かめる話.(泣き:途中のパラメータの説明の時に内職してたらついていけなくなり,チューニングやりきる前に時間切れになってしまった...)

午後の後半は,学習済みデータを推論で使う時のRuntimeがどう変わるか?というはなし. 予めVGG16でトレーニング済みのデータを,TensorRT使って高速に実行するというのをやってみる.まぁ,やってみるというほど深くやってはいないけど...KERASで学習したものからUFFファイルを吐き出し,それをもとにTensorRTでFP32で動かすと早いでしょ?っていう話.なぜ早くなるかっていうのは,同じ層を(垂直統合・水平統合・レイヤー除去)とかしてまとめて計算させて早くするという点.さらにこれをINT8に突っ込むと,それほど精度落とさずに8倍以上高速化させるというのを実際にやってみましょう.という事やりました.

 

 

で,
噂のXavier 即売会.普通に買ってもそれほど値段変わらず発注できるっぽいのを,展示会で業者さんに聞きました. 

昼休憩とかには3Fの企業ブースに行きまして,とりあえずいつもお世話になっているところにあいさつしに行ったり,DELLのブースで直接気になっているハード仕様を聞いたり,Yahoo で働いているK君がいるらしいので会いに行ったり(6~7年ぶりぐらい?)

企業ブースのところでは,お弁当で『学会おむすび』と,サンドイッチと,紙パックお茶,あとハーゲンダッツのアイスの無料配布(今回ハーゲンダッツも技術展示していた関係でスポンサードしてたみたい). 失敗したのは,お弁当食べ終わったらアイスは既に配布終了してて,,,サンドイッチ食べたかったのに,ないと思っておむすび食べてたら,奥の方にまだサンドイッチが沢山あり...ただ,おむすびのおかげで,3分で飯を食べ,企業展示で色々と聞けた. ほかにご飯食べる場所近くに無いからねぇ.

 

企業ブースは,色んな所がカメラでリアルタイムでなんかを動かしているところが多い.普通に「YOLO3ですか?」 っていうのワードが飛び交っている.

個人的にはポスター聞きに行きたかったというか,そもそもポスター出展頑張ろうと思っていたんだけど,ポスター展示が狭そうだった.みんな「中身分からないけど,モノだけ買いに来た」っていう雰囲気でもなくて,色々と理解して手を動かしている人達が多い印象を受けました.

去年は,後輩君たちが参加してセッション参加してきたのだけど,やはり来年も自分で参加したいなと思いました.

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

さわやか~

2018年08月27日 | Weblog

たぶん,tmaeharaさんが静岡にいた時によくつぶやいていたのと,みんなも静岡に行くとさわやかに行く様式美があったので個人的に行きたいと思っていたので,まぁまぁ認知度は高いと思っていましたがフォロワーでも7割は結構高いですね.(投票する人は積極的に知っている人が投票し,知らない人はわざわざ投票しないことを思うと5割くらいだろうか)

 

 

この函南っていうのは,弊社の人間ドックの病院があるところ.

ちなみに,工事現場通ったけど,看板も建物もほとんどできていて,あとは内装だけっぽいぐらいまでにはできていました.来年楽しみ.

 

追記: https://www.e-aidem.com/ch/jimocoro/entry/yamamoto02

 

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

遊園地における待ち時間を考慮したアトラクション選択行動モデルとそのパラメータ推定手法

2018年03月11日 | Weblog

著者氏の人工知能学会全国大会での発表ネタが新聞に載りました.元の話は,

遊園地における待ち時間を考慮したアトラクション選択行動モデルとそのパラメータ推定手法
○清水 仁(NTTコミュニケーション科学基礎研究所), 松林 達史(NTTサービスエボリューション研究所), 納谷 太(NTTコミュニケーション科学基礎研究所), 澤田 宏(NTTコミュニケーション科学基礎研究所)

https://www.ai-gakkai.or.jp/sigconf/sigconf2017/programs/

 

もうちょっと補足すると(主著ではないですが理解している範囲では),

次のアトラクションを選択する時に,待機列や時間を考慮するのを考え,人気度と待機列の長さ(待ち時間)から(編集中)

 

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

NECのC&Cユーザーフォーラムに行ってきた

2017年11月11日 | Weblog


NECのフォーラムが有楽町でやっているらしく,当日受付で入れるらしかったので見てきました.

パソコンで情報入力して,ID番号出るんだけど,,,後ろのカウンターで名前だけ言うと印刷してくれるんですが,同姓同名とかどうするんだ?とか思った.まぁ,ID番号間違えるより良いんだと思うけど,なんか手間な気もしたが入力パソコンは沢山あったし登録もとてもスムーズだった.



最初に興味あったのが,これ.



なんか色々と聞きたかったんだけど,
聞き方が微妙に悪くて「(何この人?)」みたいな空気になってしまったのだが...
「こういう顔認証とかって米国人とか簡単に受け入れるものなのだろうか?
 なんか障壁はないんだろうか?」
という聞き方をしたのだけど,
要するに人種差別とか問題にもなるし,テロ対策っていうと米国人には良いかもしれないけどその他の多国籍な人種にとっては快く思わないんじゃないかな?と思ったのだが.
顔画像は管理側にデータ蓄積されず,客側で持っているからそれ程抵抗は無いのかもしれない.

つぎがこれ,

人の流れを計測する技術.

人数カウントの一番の難しさは個人情報保護的なアレだと思っています.なので,人数カウントってどうやっているんだろうと気になっていました.
以前のつぶやきもしましたが,この話の技術だとおもいます↓

「(これ,どういう整理で人数カウントしているんだろう?)」と思っていましたが,,,
『撮影画像が、システムの記憶装置に保存されず、撮影とほぼ同時に属性情報が生成され、その直後に破棄されているのであれば、個人情報の取得にはあたらないので、個人情報保護法違反の問題は発生しないと考えます』
ということなら良いっぽいんですが,NECが偉いのはちゃんとハードと合わせて商品化してシステム販売しているところ.このエッジサーバ(エッジデバイス)自体にGPU積んで画像認証計算させて,メモリ上で人数フロー計算しているから,HDD上にはデータが残らないそうで.で,このエッジデバイス,手のひらサイズでGPU積んで,無線LANも飛ばせるようだし,,どう考えてもTegra積んだJETSON(NVIDIA)ではないだろうか? 


で,もう一つ聞きたかった話がこれ.


おそらく説明してくれたのが,
このBlackListととして写っている人だと思う.

ハードに興味があってすっかり顔画像認識技術のこと聞くの忘れてしまったんだけど,,,専用FGPAボードで計算しているんだけど,ハーフハイト&ハーフレングスの小型で,4レーン1スロットしか使っていないけど4K画像を30fpsで処理できるそう.メモリ2GB載っててTDPは25W.NeoFace Accelerator っていうので売り出してた.



で,
ハードの話が続くけど,
スパコンも展示してたので聞いてきました.
存在知ってただけで詳細知らなかったので..




と,
つぶやきのとおりなんですが,1台170万円から.
CUDAと違ってx86命令がそのまま動くようにコンパイラも提供してくれるのはIntel Xeon Phiと同じような立ち位置.
ロジスティック回帰が1632倍速くなって,K-meansも67倍速くなるそうだが,,GPUでもK-meansも低次元データなら100倍以上速くできると思うぞ,とか思ったり.
ただ,正直汎用性を考えるとコンパイラが賢く速くしてくれて,ハードでベクトル化が効率良くできるとなると,因子分解とかテンソル分解はGPUよりもこっちのベクトル計算機の方が向いているんではないだろうか?と思うのであった.

けど歴史を考えると,元々GPUが出た頃はNVIDIAの人達も提供先の技術がナカナカ見つからないなか,SIMD命令が有効活用できそうな物理シミュレーションの人達に「単精度じゃ使えない」と言われて,画像処理ではあんまり必要無さそうな倍精度演算機を頑張って入れてきて『Tesla』として売り出して来たと思うし,自然言語処理とかの機械学習屋には「メモリ足りない」「自動で速くならないの?」って感じだったのが,深層学習で一躍使われるようになって,一気に「GPUは機械学習に使える!」「倍精度どころか単精度も要らないから半精度演算機作る」っていう流れっぽいので,NECがコレ出すの,控えめに言って5年は遅かったと思うんだよね.


最後は,
個人的な興味として,,,

いや,
なんで興味あるかというと,
就職活動で航空宇宙系を中心に周っていて,ここも受けましたからね.
その時から準天頂衛星システムの話はあって,個人的には就職したらそこの運用にすごい興味持っていたし.
なので,NECさんが頑張っているのを見ると,とてもうれしい気持ちになる.

本当は他にも
・最適輸送の話
・ヘルスケアの話
・マーケティングの話(元筑波大の小山田さんがいて少し話を聞いた(詳しくはICMLの論文を).しかもその後IBISにも参加されていた)
・正解情報だけから学習して異常検出する話
・プラント故障予測の話(複数センサデータの回帰から相関見てグラフ構造をモデル化して障害検知する話)
・ドライブレコーダのタグ付け技術の話
などなど聞きましたが,1日かけて全部聞いて回っても良さそうな規模感と完成度でした.
コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ネットワークが創発する知能研究会(JWEIN2017) 開催案内

2017年05月10日 | Weblog

みなさま なにとぞ よろしくお願いいたします


 




何をよろしくって話ですが,


論文投稿をお願いします.っていうのと,査読のお願いと座長もお願いすると思います.


招待講演も今のところ2件,私の趣味ですがお願いしていて調整中なので正式に決まれば追記します.

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

23連休

2017年05月08日 | Weblog

今年は長めにGWをいただきました.

正確に言うと23連休ではなくほぼ10連休ぐらいだったのですが,4月の中旬から23日連続出社しませんでした.

 

家族の体調が悪かったのと,年度末年度始めが凄く忙しくて,ちょっと自分でも「家庭と仕事をバランス良く」っていうのができなくなっていたので,会社の同僚に仕事を託し,可能な限り在宅で仕事しつつ,お休みを長めに頂きました.

 

こうして休んでみると,大企業の良さはスゴイ感じますね.

綾波レイばりに「わたしのかわりはいくらでもいるもの」っていう気分です.

いや,同僚の皆様,御迷惑をおかけしております.

 

 

けど,大学とか研究会の仕事ってつらいですね.土日とかGWとか関係なしに依頼が飛んでくる.休みの日にも「【至急!】」ってくるのに対して,毎回「すみません,休日にメールとかしちゃいけないので休み明けに」って返すんだけど,正直大学関連はGmailで全部済ませたいしTwitterかFaceBookで済ませたい.

個人的には良いんですが,民間企業の人間がアカデミックな仕事をする時はナカナカ難しいもんですね.

 

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

CentOS7 にTensorflowを入れてみた

2016年01月23日 | Weblog

後輩氏がUbuntuにTensorflow入れるのに苦労していたので自分も小一時間頑張ってみた.
(自分の進捗発表が終わると時々発生する気が抜けた現実逃避とも言う)

 



 

まぁ,まずはココ読むよね

TensorFlow -- Download and Setup

 

で,要件が

・The TensorFlow Python API currently supports Python 2.7 and Python 3.3+ from source.

・The GPU version (Linux only) currently requires the Cuda Toolkit 7.0 and CUDNN 6.5 V2. Please seeCuda installation.

ということで,CUDA7.5は対応していない.

 

まずはUbuntuだろうがCentOSだろうが

$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow-0.6.0-cp27-none-linux_x86_64.whl 

をします.

まぁワタクシはsudoしないでsu - でrootで全部作業しちゃうんですけど.

ちなみにCentOS 7はpython2.7がデフォルトだったと思うので,2.7として話します.

 

次にCUDAが入っていれば

  $ python ... >>> import tensorflow as tf

というところで普通に行くと思うんだけど,

後輩氏がはまっていたのは,最初にCUDA7.5を入れていた事.

 

 この他にも

libcudadnn.so.6.5が無いとか言ってくるのでどうにかしないとダメです.

 

で,最近はCUDA入れるのはとても簡単になっているので,NVIDIAのサイトからCUDA7.0とCUDA7.5の両方を取ってきて,最初に7.0をinstallして展開させて,,もう一回7.5をinstallすれば良い. (元々ワタクシのサーバは7.0を一度入れていたのでもうちょっと楽)

  export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda/lib64"
  export CUDA_HOME=/usr/local/cuda 
 
とありますが
 
  export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda/lib64:/usr/local/cuda-7.0/lib64"
 
とするだけでOK
先に7.5の方を見に行ってくれつつ,7.0も参照してくれるので問題無いです.
最初はlibcudart.so.7.5をlibcudart.so.7.0にコピーしちゃおうと思ったんだけど,libcudadnn.soが7.5のライブラリになかったので,,そんなに大変じゃないのでCUDA7.5使っている人は一回7.0を入れてからもう一回7.5を入れましょう.

 

で,個人的にpythonに関して超素人で,numpyのバージョンでちょっとハマったけど,

あとはvirtual-env入れる

  yum install python-pip python-dev python-virtualenv

  $ virtualenv --system-site-packages ~/tensorflow

 (tensorflow)$ pip install --upgrade https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow-0.6.0-cp27-none-linux_x86_64.whl

 

昨日はいろいろと実装はしていないけど

Googleが提供する機械学習ライブラリ TensorFlow を1時間で試してみた | freshtrax | btrax スタッフブログ

ここらへんの事を試してみて動作確認しました.

 

DNN関係はみんなUbuntuでのinstall方法は書いてあるんだけど,サーバ管理する側としてはCentOSとかの方が良い.

で,後輩氏がトラブっていたのはCUDAの方っぽいが,CentOSでも入るけどバージョンはCentOS7以降が良いよね.

コメント
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする