土曜日に、Adobe Fireflyの話になって、
ベータ版の申し込み方法について、答えられなかったので、
ここにメモ。
でも、そもそもAdobe Fireflyって何?っている人もいると思うので
説明すると、Adobeが出す、生成系画像AIのこと。
stable deffusionと何が違うの?っていうことになると思うけど、
さすがにそこはAdobeさん、商用利用前提としていて、
データも著作権フリーなものから学習している。
Adobeが出している説明動画はこんな感じ
Adobe Firefly: Family of New Creative Generative AI Models
で、前置きはさておき、そのベータ版申し込み方法がかいてある
ページは↓
つまり、↓
のJoin the betaをクリック
右上Request accessをクリック
出てきた画面にこたえて
ボタンを押したら
招待状が来るまで気長に待て
とのこと・・・来なかったら??(^^;)
AIで作った女子高生だそうな・・・
AI女子高生-2 #AIart #ai美女
ちなみに、静止画をまとめて上のような動画にするには
vrewというソフトがあるみたい
(無料でも使えるし、お金払うともっと使える)
【ホントは教えたくないAI】タイトルだけで動画制作完了!3分で完成!驚愕のAI動画生成
vrewのURL
https://vrew.voyagerx.com/ja/
※関係ないけど、おまけ
前に、「生成系AIのStable Diffusionで手持ち写真(着衣)を」・・・で始まる記事を書いたんだけど、その中で、「もしかするといいやり方あるかも・・・」って書いていたけど、やっぱりいいやり方があった!
もとの記事が公序良俗違反で見れなくなってしまったので、
その部分だけ書いても、よくわかんないと思うけど、
一応書いておく。
・Stable Diffusion立ち上げまでは、以下の動画参照
【無料で使える】AI美女を作りまくる方法。AIツール「Stable Diffusion」の使い方
上記動画に出てくる、Stable Diffusionのサイトは
https://drive.google.com/file/d/1TRbZ2aDLH1xR_OFv5yRfkR3rCsIDGd41/view
https://drive.google.com/file/d/1TRbZ2aDLH1xR_OFv5yRfkR3rCsIDGd41/view
・たちあがったら、img2imgタブをクリック
・この後が違う!
下にもタブがあるけど(左側)、そのタブのinpaintタブをクリック
・そうすると、画像ファイルが読み込めるので、
手持ち画像をアップロード するだけでよかった・・・
そのあとの操作は同じ
黒塗りにして、
プロンプト書いて、
Denoising strangth 変えて
オレンジのボタン押す
くわしいことは、もうひとつのブログのほうに書いておいた。
以下のビデオで、小学校2年生がChatGPTを使って詩を書いたらという話をしている。
【ひろゆきvsサトママ】 ChatGPTは12歳未満禁止にすべきか?
サトママは、はじめ「いぬ」という詩を小学校2年生むけにChatGPTに書かせるとっていう話をしていたけど、試したことあるのかなあ・・・
こんな感じになる

いや、ちょっと上手というレベルではなく、
うますぎで、一発でばれるでしょ。
CharGPTは、GPT(Generative Pre-trained Transformer:事前学習済みの生成系Transformer)であり、大規模言語モデルといわれるように、事前学習データは、自然言語を大規模に学習させているので、詩とかを書くような自然言語操作は人間以上になっている。それで、詩を書いた結果を小学二年生の言葉に翻訳しているだけなので(つまり中身は大人の人間以上)、リアル2年生に、書けるものではない。
ただ、いい詩を読まないと、自分もいい詩は書けないわけで・・・
サトママみたいに周りに優れている子しかいない環境なら、ChatGPTいらない。子供間で切磋琢磨すればいいけど、そんな優れた子供がいない場合、見本となる詩はChatGPTに書いてもらうしかないんじゃないかなあ?
でそれを見本に子供が書くことにより、成長していくと。
ChatGPTがうまく書いても、子供が成長しない限り、子供は、うまい点がみつけられないから、大丈夫!
ましてやChatGPTの内容をパクって行ったらバレバレですね!
昨日書いたように、感想文だと、目も当てられない結果になる。
ひろゆき氏の「検索エンジンで検索するのとどう違うんですか?」だけど、全然違う。
検索エンジンで得られる結果は、誰かが書いた記事なので、本当のことが多い。出自もわかるので、出自が信頼できるところでは、かなり信頼できるのだ。
一方、ChatGPTはGPT(Generative Pre-trained Transformer:事前学習済みの生成系Transformer)、つまり、Transformerであり、TransformerはAttention技術を基に使っている。
Attentionは、Attention(Q,K,V)っていう形をとっている。ここでKVはキーバリューの略。つまり辞書(連想配列)、Q(検索内容)と、K(キー)の類似度(内積とってるQKt)に応じて、V(値)を”まぜまぜして”出している。
ここ重要。事実を、類似度に応じで、「まぜまぜ」してしまうのだ!
スエズ運河の株式会社を作った人は、レセップスですね。
スエズ運河の開通は1868年です。
では、
レセップスは、スエズ運河の株式会社をいつ作ったでしょう
答えは、「わからない」になるはずですよね。上の事実しか知らない人は
(正解は1854年)
ところが、Transformerだと、2つを混ぜまぜして、1868年と答えられてしまう可能性が高いわけです(なにかを無理やり答えようとして混ぜ混ぜするから)
こんな形なので、基本的に、そのものずばりを学習していない限り、適当な答えが返ってくる可能性高いです。
つまり、検索エンジンと違い、史実はテキトー、でたらめなことが多いです。だからこそ、自然言語処理がうまくいくのです。
ということで、ひろゆき氏の質問
検索エンジンとは、回答の信頼度がちがって、普通
事実確認したいときは検索エンジン
自然言語の作業(文章を作る、要約する、翻訳する)ときはChatGPT
と、明白に使い分けられます。
ただ、
ChatGPTは、12歳以下禁止のようにするのは、意味ないと思うけど
(ちなみに、12歳の12はどこからっていう議論あったけど、それはピアジェから。ピアジェの形式的操作段階になるのは、だいたい12歳から。それ以前は具体的操作段階の年齢だから、体験学習のほうが良い)
生成系画像AIのStable Diffusionを使う場合は問題あるかも、たしかに・・・
パンツ丸見え画像を生成する場合は問題ないんだけど、
フルヌードを生成させる場合(生成できる)問題がある。
それについて書くと長いので、別エントリにするけど、
予習したい人は、パンツ丸見え,フルヌードをStable Diffusionで生成する方法は↓に書いておいたので
無料でできるから予習・・・しなくていいです(^^;)
ChatGPTを使って普通に感想文を作らせると・・・
(以下赤字が質問、青字が回答)
「ごんぎつね」の読書感想文を書いてください
「ごんぎつね」は、日本の文学作品の中でも特に愛される童話の一つです。この物語は、狐のごんが人間の姿に化けて、人々と交流する姿が描かれています。
物語の中で、ごんは自分が狐であることを隠しながら、人々と仲良くなります。彼は人間の生活を知るために、人間の言葉を学び、料理を作り、仕事を手伝い、そして愛する女性との間に子供をもうけます。
しかし、ごんが狐であることがバレてしまい、彼は人々に追われることになります。最後には、自分が狐であることを受け入れ、狐の姿に戻りますが、彼の心の美しさや優しさが人々の心に残ります。
この物語は、川端康成が描く自然と人間の共存や、人間と動物の対話を通して、愛や優しさ、そして生命の尊さを描いています。また、ごんが自分の本来の姿を受け入れる過程で、自己を受け入れる大切さを教えてくれます。
私はこの物語がとても心温まるものであると感じました。物語の中のごんのように、私たちも自分自身を受け入れ、他者と共に生きることが大切だと思いました。
川端康成って、ごんぎつね書いたのは新美南吉だし、ごんぎつねに子供とかでてこないし・・・なんのこっちゃ?
とおもって、聞こうとして打ち間違えたら・・・
ごんぎつねのストーリーnituite
「ごんぎつね」は、川端康成によって書かれた日本の童話であり、物語は主に狐のごんというキャラクターを中心に展開しています。以下に物語の概要をまとめました。
ごんは、人間の世界に憧れて、狐のままではなく人間の姿に化けることを決意します。ごんは自分が狐であることを隠しながら、人々と仲良くなり、彼らの生活を学びます。彼は、人間の言葉を学び、料理を作り、仕事を手伝い、そして美しい女性のために弓を作ります。そして、彼女と子供を授かります。
ごんは、人間の世界で暮らす中で、自分が狐であることを隠し続けることが大変であり、自分自身を見失いかけます。彼は、人間の世界で自分自身を表現することができなくなり、自分が本来の姿である狐の姿を受け入れることになります。
物語の後半では、ごんが自分が狐であることを受け入れる過程が描かれます。彼は、狐の世界に戻りますが、彼が人間の世界で学んだことや、人間との交流を通じて得た知識や感情は、彼の心に残ります。
「ごんぎつね」は、自然と人間の共存や、動物と人間の対話を通して、生命の尊さや愛、優しさを描いた美しい物語です。
まるっきりストーリー違う(^^;)
こんなんで、読書感想文として出したら、ChatGPTを使ったことも、この本を全く読んでないこともバレバレですよね。
■対策:ChatGPTで読書感想文を書かせるには
物語のあらすじをWikipediaからコピーし、以下のように質問するとできます。
以下の物語のあらすじを読み、読書感想文を書いてください
### 物語のあらすじ ####
物語は村の茂平からの伝聞という形式になっている。 両親のいない小狐ごんは、村へ出てきては悪戯ばかりして村人を困らせていた。ある日ごんは兵十(へいじゅう、またはひょうじゅう)が川で魚を捕っているのを見つけ、兵十が捕った魚やウナギを逃がすという悪戯をしてしまう。それから10日ほど後、兵十の母親の葬列を見たごんは、あのとき逃がしたウナギは兵十が病気の母親のために用意していたものだと悟り、後悔する。 母を失った兵十に同情したごんは、ウナギを逃がした償いのつもりで、鰯を盗んで兵十の家に投げ込むも、翌日に鰯屋に泥棒と間違われて兵十が殴られていたことを知り、ごんは反省する。それからごんは自分の力で償いをはじめる。しかし兵十は毎日届けられる栗や松茸の意味が判らず、知り合いの加助の助言で神様のおかげだと思い込むようになってしまう。それを聞いてごんは割に合わないとぼやきながらも届け物を続ける。 その翌日、ごんが家に忍び込んだ気配に気づいた兵十は、また悪戯をしに来たのかと思い、戸口を出ようとするごんを火縄銃で撃ってしまう。ごんはバタリと倒れ、兵十がごんに駆け寄ると土間に、栗が固めて置いてあったのが目に留まり、はじめて、栗や松茸がごんの侘びだったことに気づく。 「ごん、おまえ(おまい)だったのか。いつも、栗をくれたのは。」と問いかける兵十に、ごんは目を閉じたままうなずく。兵十の手から火縄銃が落ち、筒口から青い煙が出ているところで物語は幕を閉じる。
「ごんぎつね」は、自分勝手な小狐のごんが、人間たちを悩ますうちに出会った兵十との交流を通じて、人とのつながりや他人への思いやりを学んでいく姿が描かれた物語です。
最初は悪戯ばかりで他人を困らせるごんですが、兵十が病気の母親のために用意していたウナギを逃がしてしまい、その後償いを始めます。しかし、償いの品を受け取っている兵十が、それが自分で得たものだと思い込んでしまうことで、ごんの償いが正しく伝わっていないことに戸惑い、やりきれない気持ちを抱えるようになります。
そして、物語の結末では、ごんが家に侵入したと勘違いした兵十によって火縄銃で撃たれてしまいますが、その瞬間に兵十がごんの償いの品が自分によって得たものではなく、ごんの償いだと気づくという感動的な場面が描かれています。
この物語は、自分勝手な思いやりのないごんが、他人との出会いや交流を通じて成長し、自分の誤りを償いながら、人との繋がりを大切にすることを学ぶ姿が描かれています。また、人間の思い込みや勘違いが、本当に大切なものを見落としてしまうことを示唆しており、心に残る物語だと感じました。
一部ビミョー(「償いの品を受け取っている兵十が、それが自分で得たものだと思い込んでしまうこと」)なところもあるけど、まあまあ正しい読書感想文ができたでしょ!
ChatGPTは質問のしかたで答えが大きく変わる。
そこで、質問の仕方(=入力プロンプトに入れる文章)が問題になってくる
この質問の仕方の技術を「プロンプトエンジニアリング」といって、
その技術の概要が書いてあるものがあったのでメモ
Prompt Engineering Guide
英語の表題だけど、中身は日本語
ちなみに、「プロンプトエンジニアリング」について、まとめている動画があったので、メモメモ
【大注目スキル】「プロンプトエンジニアリング」の基礎について、"Prompt Engineering Guide"に沿って少し真面目に解説します。
↑は、プロンプトエンジニアリングの概要が説明してある
【大注目スキル】「プロンプトエンジニアリング」の基礎について、"Prompt Engineering Guide"に沿って少し真面目に解説します。part2
↑は上記「Prompt Engineering Guide」の概要を説明している
こんなかんじ

※答え合わせ
運勢の理由がわかりやすい動画見つけたので↓
【おとめ座】進むべき道が見えてくる!必要な情報もどんどん集まります/占星術でみる5月上旬の運勢と過ごし方
昨日、記事に書いた、最強の対話AI
ChatGPTに聞いてみた!
赤字は私からのしつもん、
青字はChatGPTの答え、
黒字(日本語)はツッコみ!
What songs popular in Japan
動詞はareでよかったのかな?抜けているけど、答えてくれた!
There are many popular songs in Japan. Some recent examples include "Lilac" by IU, "Imitation Rain" by Arashi, "Not Afraid" by Sekai no Owari, "Yoru ni Kakeru" by Official Hige Dandism, and "Sazanka" by Aimyong. The popularity of songs in Japan can change frequently, so it's best to check for the current popular songs.
"Yoru ni Kakeru"(夜に駆ける)がOfficial Hige Dandism(Official髭男dism)??根本的にテキトーなこと言ってるように聞こえるけど、
まったく知らない
Please tell me more about "Lilac! by IU
を尋ねてみたところ・・・
"Lilac" is a song by South Korean singer-songwriter IU. It was released as the lead single from her fifth studio album, "LILAC," on March 25th, 2021. The song was written and composed by IU herself.
The song is a mid-tempo pop ballad with a mellow, soothing melody and lyrics that express the feeling of longing for someone who is no longer there. The song's lyrics describes a person who is longing for someone who is no longer around, and how the memories of that person are like a sweet scent of lilacs, lingering in the air.
"Lilac" was well-received by critics and fans alike, and it has been a commercial success in South Korea and Japan. The music video for the song has also been praised for its artistic and visually stunning imagery.
The song also has a Korean version and it became the number 1 on South Korea's Gaon Digital Chart and the Billboard World Digital Song Sales chart
めちゃくちゃ詳しいな・・・
ちなみに
ただしい知識みたい
じゃ、
K-POP is popular in Japan?
詳しいのかな・・・
Yes, K-pop (short for Korean pop music) has become increasingly popular in Japan in recent years. The Korean Wave, also known as Hallyu, has been sweeping across Asia, and Japan has been no exception. Many K-pop groups and artists have gained a significant following in Japan, and their music has become increasingly popular on music charts and streaming platforms.
In addition to music, K-dramas, K-movies and Korean variety shows have also gained a large following in Japan. K-pop idols and actors are often invited to perform or appear in Japanese TV shows and events, which helps to increase their popularity in the country.
K-pop acts such as BTS, BLACKPINK, EXO, Red Velvet and many more have a huge fan base in Japan. They also perform in Japan as part of their concert tours, which contributes to their popularity in the country.
However, the popularity of K-pop in Japan does not mean that Japanese music is not popular, there are many Japanese musicians and bands who are also well-liked in Japan and around the world.
BTS, BLACKPINK, EXO, Red Velvet??
I think that K-POP Group "LE SSERAFIM" is popular in Japan. What do you think?
K-POPで今はやっているのは"LE SSERAFIM"でしょ!
I'm sorry, but I am not aware of any K-pop group by the name "LE SSERAFIM" that is currently popular in Japan. It's possible that you might have misspelled the name or it's not a well-known group. It's also possible that the group you are thinking of is not a K-pop group but a different type of music group. It's important to note that the popularity of music groups can change frequently and vary depending on the region, so it's best to check for current popular groups.
まじ!(@_@!)知らないの!!
じゃ、"LE SSERAFIM"の宮脇咲良さんのいたIZ*ONEは?
Do you know "IZ*ONE"(K-POP Group)?
Yes, I am familiar with IZ*ONE (also stylized as IZONE). It's a South Korean-Japanese girl group formed by CJ E&M through the 2018 Mnet competition reality show Produce 48, which aired on Mnet. The group is composed of twelve members: Jang Wonyoung, Sakura Miyawaki, Jo Yu-ri, Choi Ye-na, An Yu-jin, Nako Yabuki, Kwon Eun-bi, Kang Hye-won, Honda Hitomi, Kim Min-ju, Lee Chae-yeon and Kim Chaewon.
IZONE debuted in October 2018 with their mini-album "ColorIz" and the title track "La Vie en Rose" and the group quickly gained popularity in South Korea and Japan. They have released several successful albums and singles, and have toured extensively in both South Korea and Japan.
The group has gained a huge fan base in Japan because of their catchy and upbeat songs, visually stunning music videos and the group's unique concept which is a mix of both South Korean and Japanese members.
IZ*ONE has been active until 2021 and they were supposed to be active for 2,5 years but due to the alleged vote manipulation scandal in Produce48, the group announced that they will be disbanding on April 2022.
IZ*ONEは知ってる・・じゃ、宮脇咲良さんは・・・?
What is IZ*ONE member Sakura Miyawaki doing now?
As of my knowledge cut off in 2021, Sakura Miyawaki, a member of IZONE, has not announced any specific plans for her activities after the group's disbandment in April 2022. As a member of IZONE, she has been active in South Korea and Japan, performing and promoting the group's music.
It's likely that after the group's disbandment, she will continue her career as an artist, potentially pursuing solo activities such as singing and acting, or continuing to work as a model. Many idols and artists also take a break to focus on their personal life, education or other opportunities. It's also possible that she will join another group or agency in the future. However, I would recommend you to check the latest news and information as things may have changed since my knowledge cut off.
2021年までのちしきしかないんだ(@_@!)
ので、シェア
“最強”対話AI「ChatGPT」から最高の答えを引き出すテクニック【橋本幸治の理系通信】(2023年1月25日)
で、そのChatGPTのサイトは、↓
サインインして登録すると、やれるようになる。
やってみたんだけど・・・その結果については、別エントリで書く予定
ちなみに、↑の動画でほかに出てくる
elicit
文字おこしWhisper
ちょっと中小企業のAI導入にかかわることがあって、
周りの人が知らなかったので、シェアしておきます。
これ知らないと、無駄なことしたり、あさっての方向に
開発が行ってしまうから。
【まず前提】
AIを導入するとき、どこにAIを導入したいかっていうのを決める。
これが決まった後の話。
■オープンソースを使う場合
オープンソースは、CNN,RNNのように、
アルゴリズム(畳み込み深層学習とか)としてまとまっていて、
機能ごとに存在するわけではない。
(というか、どのような機能に応用可能か日々研究されている)
なのでこれらオープンソースを利用して、AIを利用したシステムを構築する場合は
(1)どの手法、アルゴリズムを利用するかを決定する。
(2)その手法を実現するのに学習データが必要な場合
どのような学習データを収集(場合によっては生成)するか
決定する
(3)学習データを使って学習させる
→学習してくれれば、使える
という手順である。
適切なアルゴリズムがあるか、学習してくれるかは、わからない
■SIerのAPIを使う場合
富士通だと、Zinrai
音声合成、チャットボットなど、各目的ごとにAPIやライブラリがあり、
それを利用する(富士通以外でも、各社、API,ライブラリはある)
なので、目的が決まったら、SIerを呼んで
(1)どのAPI、ライブラリを使うか
(2)学習モデルをカスタマイズする必要があるか検討
・標準的なものを利用する場合→学習不要
・一部判断部分で、自社用にカスタマイズ必要→転移学習
・はじめっから学習させる
→この場合、そのライブラリ、API使えないかも
(3)(2)の結果に応じて、学習を行う
となる。よって細かなAIの知識は必要ないが
・AIで実現できる機能を知っていて、その範囲内に要求を持ってくること
・学習不要か、転移学習かの判断
は必要になってくる
機械学習とか深層学習の話をしたがる人は、
「■オープンソースを使う場合」に偏っていて、
「■SIerのAPIを使う場合」で使う「何をどこで使うか」の
考え方を無視しているような気がする
鉄道・バス・航空・旅客船のデータをREST APIを通じて、共通のJSON形式で一般の開発者やICTベンダー等にワンストップで提供してくれる「公共交通オープンデータセンター」っていうのがあるそうなので、メモメモ
公共交通オープンデータセンター HP
https://www.odpt.org/
公共交通オープンデータセンターとは
https://www.odpt.org/overview/
データセット
https://ckan.odpt.org/dataset
開発者サイト(登録とかもここから)
https://developer.odpt.org/ja/info
公共交通オープンデータセンター HP
https://www.odpt.org/
公共交通オープンデータセンターとは
https://www.odpt.org/overview/
データセット
https://ckan.odpt.org/dataset
開発者サイト(登録とかもここから)
https://developer.odpt.org/ja/info
ちなみに、提供データはこんな感じらしい
【公共交通オープンデータ協議会のサイトにおいて公開済のデータ】
・運行情報
・駅時刻表
・列車時刻表
・駅情報(乗降人員数)
・運賃情報
・東京メトロ駅情報
・東京メトロ路線情報
・駅ナンバリング画像
・路線シンボルマーク画像
※このほか、列車ロケーション情報について、提供開始に向け調整中
(太字はメール「【重要:提供終了】「東京メトロオープンデータ開発者サイト」におけるデータ提供終了のお知らせ」(2022年3月10日)から引用)
新しいシリーズをやろうかどうか考えているんだけど(表題の件)、需要があるかどうかわからないので、とりあえず書いてみて、この記事の読まれ方で決めてみたいと思います(つまり、その2がなかったら、需要がなかった、見る人少なかったってこと)。
データがあって、何らかの予測をしたいとき、どういう手法を使って、どうやってその予測を説明、報告するかについて、書いていってみたいと思います。
ここでいう説明というのは
・予測値は、これこれである
・その予測値が出た理由は、これこれこうであり、
・予測値を改善するには、これこれをすればよい
という3点が言えることと考えます。
■予測の出し方・説明の仕方は、大きく分けると
モデルを使うか/例を出すかの2種類
予測を出すとき、入力がこうだと、出力はこうなるという数式や関数、ルール(これをモデルと、ここでは言います)を用いて予測を出す「モデルを使う方法」と、この入力値は、これに似ているので、これと同じ出力になるはずという「例に基づいて判断する方法」の2つがあります。
たとえば、アイスクリームの売り上げ予測をするとき、気温、湿度、天気などの要因を入力項目とし、「この入力値であれば、いくつ売れるはず」と売り上げを予測するのが、「モデルを使う方法」で、
似たアイスクリームを探して、「これはガリガリ君に似ている。ガリガリ君は昨日10本売れたので、明日はあ、ガリガリ君とこの製品を合わせて10本ぐらい売れるだろう」と似ているものを探して推測するのが「例に基づいて判断する方法」。
似たアイスクリームを探して、「これはガリガリ君に似ている。ガリガリ君は昨日10本売れたので、明日はあ、ガリガリ君とこの製品を合わせて10本ぐらい売れるだろう」と似ているものを探して推測するのが「例に基づいて判断する方法」。
■モデルを使う方法に2通り
モデルを使って予測・報告する場合、「線形回帰」など、モデルの構造が明確になっていて、入力値と出力値の関係が説明できるモデル(=ホワイトボックスモデルという)を使って予測・報告する場合と、「DNN」やアンサンブル学習など、入力値と出力値(予測値)の関係が複雑で説明できないモデル(=ブラックボックスモデルという)を使って予測・報告する場合があります。
ホワイトボックスモデルを使う場合は、予測のときに使ったモデルごとに、説明の方法があります(ただし、説明の流れは同じ)。
ブラックボックスモデルの場合、複雑で説明できない・・・と昔はなっていたのですが、今は、モデルにかかわらず、汎用的な説明方法がありますので、それを使って説明することになります。この汎用的に説明する手法が「説明可能なAI」(XAI)になります。
■例を使う方法
まず、何に似ているかを決めます。
K近傍法(k-nn)などが使えます。
そして、その似ているものの出力を確かめます。
そうすると、似ているものも、そのくらいかなと予測が立ちます。
もし、次回があったら、「ホワイトボックスモデル」について、線形回帰を用いて予測・報告する方法についてシェアしたいと思います。
コロナのオミクロン株で重症の人は少ないと聞く。
これは事実そうだ。第5波と、第6波で、重症者とそれ以外のコロナ患者をクロス集計すれば、わかりそう(検定するならカイ2乗検定)。
では、コロナのオミクロン株で重症の人が少ない理由は?
ワクチンが効いているから
弱毒化してるから
もちろん、両方なんだろうけど、オミクロン株が弱毒化していて、そもそも重傷者になることが少ないなら、そんなに急いでワクチン3回目をやらなくてもいいかもしれない(医療崩壊しないから)。むしろ、ワクチン注射に医師を割くよりも、患者を診ることに使ってもらったほうがいいかもしれない。
この、「オミクロン株は、ワクチンが効いてるから重傷者が少ないのか、弱毒化したから重症者が少ないのか?」っていうのを分析するのが、機械学習の場合SHAPっていう理解でOK?
LIMEもできそうだけど・・・いまいちなのかしら?
線形回帰を使ってモデルを作る場合は、その作り方は
1.従属変数間の散布図を載せて
2.どの従属変数をつかったらいいか、
AICを使ってステップワイズ法により変数を選ぶか、
(探索的)因子分析を使って次元圧縮するか
(因子数は、スクリープロットで決める)
して、モデルに必要な変数を選び、
3.その変数で線形回帰モデルを作成して、
各変数の特徴をのべ(切片と、係数の議論)
4.その線形回帰モデルが適正かどうかを議論する
→決定係数を議論:交互作用がモデルにあると、よくない値になる
っていうことで、レポートにできる。
でも、線形回帰だと、上に書いたように、交互作用があると、
あまりよくないし、そもそも、モデルは線形にしていいかどうかわからない。
(非線形かも?)
Random Forest(ランダムフォレスト)を使うと、その点、
交互作用があっても、線形でなくても、予測を当ててくるので、
もっといいモデルができるけど、
Random Forestの場合、モデルがブラックボックスのため、
どの変数を減らしたらいいかとか、
変数ごとの動き、
交互作用について
述べることができなかった。
ところが、ここ最近のXAIの研究により、
どの変数を減らしたらいいか→PFI
変数ごとの動き→PD
交互作用について→ICE
を使うと、回帰分析のような流れで、Random Forestのモデルで議論できる
ようになった
→つまり、線形回帰ではなく、Random Forestでモデルつくって、
レポート、あるいは論文が書けるってこと。
その方法について、
っていう本に書いてあるんだけど、そのことに気付かないで
「この本、何のためにあるの?」と言っていた人がいたので、
みんなでRandomForestの書き方をシェア。
上記に書いた、線形回帰の場合をもとに、その本のどこに書いてある何を使えば、線形回帰のノリで、Random Forestが書けるかについて、書いておきます。
1.従属変数間の散布図を載せて
→これは、線形回帰と同じ
2.どの従属変数をつかったらいいか、
→PFIを使って、変数を絞り込む。
3章参照
3.その変数で線形回帰モデルを作成して、
各変数の特徴をのべ
→PDを使って、各変数の動きを、PDPで表現する
4章参照。PDPは、そこに出てくる図のこと
4.その線形回帰モデルが適正かどうかを議論する
→Random Forestの適合性で言えるけど、
交互作用の議論は、ICEで出来る。5章参照
なお、プログラムについて、サンプルはPythonだけど、Rでやりたい場合は
付録Aを参照。
ちなみに、上記の本の各章の作り方は、だいたい決まっていて、
なんでその処理を行うのか
処理の内容
因果関係との関係
実データを使って実行
という流れになっているので、実データを使っているところを参考にして、実際のモデルを作ればいい。
1章は、お話
2章は、線形回帰の問題点が書かれている(Random Forestを使う理由を書きたいとき参考になる)
6章のSHAPは、モデルができた後で、予測をするときに使う
(予測は予測でまた、レポートの書き方が違うので、気分が向いたら別エントリで書くかも?)
付録Bは、2章の逆で、今回使ったPFI等を線形回帰に使っても、妥当であることを示している→なのでRandom Forest特有の話ではないということを言いたいときに使う。
こういうように、レポートを書くのに、ばっちり使えるので、この本は人気なんだと思う。
最近、説明可能なAI(XAI)が流行っている。
説明可能なAIとは、機械学習によるモデルの予測などで、なぜその予測をしたのかがわかるようにしたAIのこと。
回帰や決定木の場合は、そうなった理由はわかるけど、ディープラーニングの場合、中身がブラックボックスなのでどうしてそういう予測になったかわからない。そこで、それを説明する必要が生じる。この説明技術がXAI
今日は、その教科書などを、メモメモ
■概要
概要を見るならここ!
■教科書
↑にかかれているけど、教科書は
日本語訳は、
■わかりやすい本
読みやすい。PFI、PD、ICE、SHAP が紹介されている
■サーベイ論文
Riccardo Guidotti, Anna Monreale, Salvatore Ruggieri, Franco Turini, Dino Pedreschi, Fosca Giannotti
てなかんじです。