皮膚科医が感覚的にコードを書いて皮膚がん学習アプリを開発!
引用元:https://news.ycombinator.com/item?id=45157020
AIコーディングのDIY的な側面って、俺は結構好きだよ。以前なら、皮膚科医がこんなアイデアを持っていても、協力者を探してたくさんの作業をしてもらう必要があっただろうし、アイデアで終わっていた可能性が高いからね。これは技術者じゃない人だけの話じゃなくて、俺も何十年も温めているアイデアがあるけど、単純に時間がなくて取り組めなかったんだ。だから今、AIエージェントを動かして、どうにかできないか試しているところだよ。
「vibe code」っていう名前だけが唯一の不満かな。でも、みんながコンピューターをプログラミングして役立つことをできるようにするっていうのは、本当に素晴らしいことだよ。
わかる、俺も何年も頭の中で温めてたアイデアがあるけど、実行に移したことはなかったんだ。「たぶんうまくいかないだろうな」って思ってたし、そこまで労力をかける価値もないと感じてたんだ。俺はプロとして20年くらいコードを書いてるから、やり方がわからないわけじゃないけど、とにかく時間がかかったんだよね。でも今はAIでそれらをどんどん形にして、とりあえず世に出してるよ。ちょっとイケてない部分もあるけど、何もないよりはマシだし、何が起こるかわからないからね。
まぁ、画像分類タスクってコーディングは全く必要ないんだよね。訓練データを読み込んでモデルを訓練し、ユーザーからの入力画像に基づいて分類するプログラムが一つあればいいだけ。これは基本的に、犬や猫でも皮膚がんでも、どんな種類の画像でも使えるよ。
…これってコーディング必要ないんじゃない?
追加のコーディングは不要だよ。犬猫分類器のコードを流用して、訓練データだけ変更すれば何にでも使えるんだ。
コンピューターがもっとユーザーにスクリプトを書かせるような設計だったらいいのにって思うよ。だって、これはほとんど全ての働く人にとって役立つ、ものすごい能力なんだからさ。
俺は参入障壁とか努力を評価するタイプなんだ。この皮膚科アプリ、もし単なる固定ループのクイズじゃなくて、素人がCarcinomasやMelanomas、非癌性のほくろの違いを識別する方法を本当に教えてくれたら、もっとずっと良いものになっただろうにね。
まさにこれだよね。以前は開発会社を雇わないとアイデアを形にできなかった多くの人が、今ではもっと早く実現できるようになったんだ。この影響は、非技術系分野でより大きくなると思うよ。
画像分類は結構やったけど、やっぱり無理だな。
高エラー率でのざっくりした確認でいいならいいけど、『この2つのドキュメントは同じ?』みたいな複雑なタスクはめちゃくちゃ難しくて、失敗の仕方も巧妙なんだよね。
ほとんどの専門家は、この問題を画像分類として扱わないと思うな…。
それに、vibe-codedな解決策じゃ良い結果は出ないんじゃないかな。だから、君のコメントはここでは的を射てないと思うよ。
彼らはコンピューターをプログラミングしてるんじゃなくて、ジュニアインターンに危険な欠陥だらけのソフトを委託してるようなもんだよ。
個人的には、プロトタイピングの参入障壁はできるだけ低い方が良いと思うね。
専門家が安上がりで自分で思い描いたものを作れるってのは、すごく強力な能力だよ。
プロトタイプのほとんどはアイデアの欠陥で捨てられるのであって、専門的なソフト開発の助けがなかったからじゃない。
もし良いものなら、ちゃんと作り直せるしね。
参入障壁を上げると、試されることがずっと少なくなるよ。俺の意見だけどね。
>個人的には、プロトタイピングの参入障壁はできるだけ低い方が良いと思うね
でも、意思決定者が優れた技術やセキュリティの価値を何も知らないせいで、プロトタイプがそのまま本番環境に投入されがちな業界ではダメでしょ。
Appleは昔からこういうのが得意だよね。AppleScript、Automator、Shortcutsとか。
伝統的なコードを書く前から、OS X 10.4でいろんな面白いことしてたよ。
これって画像分類の要素がたくさんある問題だよね。
『Vibe coding』は、この問題で驚くほど良い仕事をしてくれるよ。うん、するんだよね。:)
そうだね。多くの人が見落としがちなのは、プロトタイプは常に悪いものだってこと。
このプロセスはMVPを加速させるだけで、アイデアを持つ人に、アイデアを検証するより速い方法を与えるんだ。
『でもセキュリティが(笑)』に焦点を当てるのは、個人的には的外れな意見だよ。
初期の試みは、セキュリティやスケーラビリティ、その他多くの問題で、必ず何かしら悪い点があるもの。
早期に検証することは良いことだし、非技術系の人にもチャンスを与えるのは良いことだ。
もしアイデアが追求する価値があるなら、『専門家』と一緒にいつでもやり直せる。
でも、MVPに入れたい全てのアイデアに専門家(いや、アマチュアでさえ)を雇う余裕なんてないでしょ。
前のコメントに反対だよ。LLMやvibe codingでアイデアを試したけど、手作業より時間を無駄にした。
vibe codeはひどくて、時間をかけても意図と違うエラーが山ほど出てくる。
何も学べず、見かけ倒しのアプリを作っただけだ。
これこそ『AI』の誇大広告が持つ魅力だよ。魔法みたいに見えるけど、レビューすると嘘だとわかる。
今じゃLLMは、高度な検索置換やJSON化のようなデータ構造化くらいにしか使ってない。
AIが、ブール値じゃないのにロジックを常にtrue/falseにしちゃうようなコードを吐き出すことが何度もあったんだ。
単純な画像分類問題から、複数の画像分類ステップがあるパイプラインにスコープを広げたってことね。
結局、何やってるか分かってないし、AIの理解も足りないから、全部ノリでやってるってことじゃん。
こういう試みはよくあるんだよね。SQLとかも元々は自然言語みたいに使えるように作られたけど、結局は限界にぶつかるんだ。
スクリプト言語の機能を拡張してプログラミングの本質に触れると、結局は他の言語と同じように冗長で扱いにくい言語になっちゃうんだよ。エラーに対してロバストにしようとしすぎると、構文解析とかに微妙なニュアンスが入り込んじゃって、かえって厳格な言語より複雑になることもあるんだ。
兄貴、誰も気にしないよ。LLMが前にはなかった何かを生み出したなら、それは成功なんだ。もし手動でやった方が早かったとしても、それでプログラムが存在しなかったなら意味ないからね。
”プロトタイプ”と”MVP”は全然違うんだよ。セキュリティが甘いプロダクトは成り立たないし、拡張・保守できないものもダメ。
MVPは問題を解決するために必要なだけの、エンジニアリングされたコードなんだ。素人が作ったものじゃない。
物理プロダクトのプロトタイプは販売されないけど、ソフトウェアはそのまま売られちゃうことがある。それが規模を拡大すると、設計上の欠陥が拡大するんだ。MS Accessアプリやローコードソリューションでも同じことが起こってる。プロトタイプ後にエンジニアを雇ってMVPを作らないと、結局何もできないよ。
ほとんどのアイデアはくだらないし、世に出る価値もない。本当に生産的ってのは、生み出されたものが役に立つ時だけだよ。
”vibe coding”って名前、もっと良いのがあればよかったのにね。真剣に受け止めるのは難しいよ。
AIコーディングは、”vibe coding”っていう名前が示唆するよりも、もっと真面目なものだと感じるんだ。将来的にこの分野がもっと重要になることは間違いないのに、このふざけた名前のままなのは困るよね。
HNにLLMの有料宣伝員がいるか疑問に思ってる人へ、これが証拠だよ。このアカウントは作成から30日未満で、正当な批判に対してLLMを褒め称えるだけのコメントしかしてない。ユーザー名: anthonypasq96
作成日: 22日前
カルマ: 2
その他: 投稿、コメント、お気に入り
なんで?コーディングできる医者なんてたくさん知ってるよ。病理学者がオリジナルのPrinceをハッキングしてアセンブリだけでMODを追加したり、分子病理学者が自分のパイプラインやETLを組んだりね。
多くの人がコンピューターが好きだけど、別のことで生計を立ててるんだ。
HyperCardやVBAって、素人でもすごいアプリが作れたんだぜ!
ExcelのVisual Basicもすごくて、プログラマーじゃないって言ってた人でも、めっちゃ作業効率上げてたんだから。昔はこんな感じでみんなコード書いてたんだね。
「追加のコーディングなし」って言ってもさ、
https://xkcd.com/2501/みたいに、非プログラマーにとっては、コンソールに何か入力するだけでも「コーディング」って感じちゃうんだよね。みんなコードって言葉に敏感なんだな。
姉がメラノーマだったから、非皮膚科医だけど興味あったんだ。
50%から85%にすぐ上がったのは、皮膚がんが多かったから学びやすかったんだね。でも、実際の皮膚がんの割合を50%くらいにしたらどうかな?悪いのに集中させるのもアリだけど、この検出は思ったより難しくて、皮膚科医に行きたくなったよ。
もっとコメントを表示(1)
ありがとう、確かに50:50のバランスがいいね。次のバージョンで変えるよ。
実際はほとんどの皮膚病変は無害で、危険なものを見つけるのが難しいんだ。でも、こんな短いトレーニングでも平均的な人が気になる病変を見つけるのに役立つと思うよ。
「皮膚がんを50%に」って意見があったけど、もし本物の皮膚科医の訓練なら、もっと「現実世界」の発生率に近づけるべきだよ。
実際は100個に1つくらいしか癌じゃないんじゃないかな?今のデータセットだと癌が多すぎて、簡単に「癌」って判定して高得点取れちゃうけど、癌じゃない人を検査に送りすぎると意味がないからね。
誤診のスコアリングシステムが必要だね。偽陽性はスコアの減りが少なくて、偽陰性はすごく減るようにするべきだよ。それに、陽性(癌)のケースはもっと珍しくするべきだね。
LLMを使えば、現実世界とその結果をシミュレートするコードを簡単に書かせられるんじゃないかな。
これについてもっと考えたんだけど、最初は100%とか高い割合で悪性の病変から始めるべきだと思うよ。
そうすれば、みんな本当に学ぶべき悪性の皮膚病変がどんな見た目か学習できるからね。で、学習が進んだら徐々に難しくしていけばいいんじゃないかな。50%に近づくほど、運任せの50%より高いスコアを出すのが難しくなるからね。
最初の10個くらいはほとんど癌で、次の10個くらいはほとんど癌じゃなかったよ。(ランダムかどうかはわかんないけどね。)
正直、私も癌かそうじゃないかの皮膚病変を識別するの、すごく苦手なんだ。
ランダムになってるから、たぶん運が悪かっただけだよ!
僕も他の皮膚がんの先生も高得点取れてるから、これらの画像があればほとんどのケースで診断できるはずだよ。練習すればきっとできるようになるさ。
このツール、マジ便利!でも、どうやって判断してるのか説明が欲しいな。MelanomaとSeborrheic Keratosis / Nevusの区別が全然つかないんだ。120枚見てもわからなかったよ。あと、バーガーメニューのガイドが壊れてる!
https://molecheck.info/how-to-recognise-skin-cancer
マジで助かるフィードバックだね。診断に役立つ情報をもっと追加するし、バーガーメニューに詳しい記事も入れるよ。まさか数人の患者さん以外にアプリが使われるなんて思ってなかったし、HNのトップページに載るとはね!
作ってくれてサンキュー!もうちょっと磨けば、家族みんなにやらせたいアプリになるよ。3人に1人が皮膚病変を早期に見つけられる世界って、すごいことだよね。
医者じゃないけど、皮膚がんを見つけるのにABCDEってルールがあるんだって。
A: Asymmetry (非対称性)
B: Border (境界の不規則性)
C: Color (色調の変化)
D: Diameter (直径6mm以上)
E: Evolving (変化)を見てみてね。
https://www.aad.org/public/diseases/skin-cancer/find/at-risk…
俺も同じ結論だよ。セットの50%がMelanomaで、残りの50%が”茶色い良性のやつ”っていうモードが欲しいな。
次のバージョンで追加するね!
かなりナイスな仕事だよ。キャリアで実際のニーズを掴むのが課題だったけど、君はそれを完全に理解してる。AIが来て、君や他の人が必要としてることを、多くのDevが細かく説明されなきゃできなかったことを実現できるなんて、マジで驚きだね。非Devの仲間にも教えてあげたら?
私も医者だけど、これを作った理由や過程をもっと聞きたいな。”concerned vs not concerned”って二択は、診断というより、紹介する臨床医向けって感じだね。”BCC vs Melanoma”みたいな多肢選択はMedical studentの学習ツールになるかも。他のコメントにもあったけど、実際の発生率とカードが一致したら面白いけど、良性のNaeviが多すぎてつまらなくなっちゃうかもね!
コメントありがとうね。アプリを作った主な理由は、多くの患者さんが皮膚がんの見分け方を学びたいって言ってたからなんだ。学びに良いのは、自分で判断して、その結果についてフィードバックをもらうことだと思ってる。患者にとっては、今すぐ医者に行くか、様子を見るか何もしないかの二択だよね。実際、ほとんどの皮膚がんは非専門家でもすごく分かりやすくて、見逃されるのは患者が自分の肌を見てないか、何を見ればいいか知らないからなんだ。発生率については君の言う通りで、良性と悪性のバランスが良い方がいいけど、99%が無害なMoleで1%がCancer(実際の比率)だと、患者が皮膚がんの見た目を学ぶのに時間がかかりすぎるから、それは良くないと思うよ。
Queensland州の皮膚がん医だけど、毎日10~30個の皮膚がんを見つけて切除してるんだ。俺の経験だと、見つけるがんのほとんどは他の医者にも分からないし、患者にはもっとだよ。ほとんどがBCCで、小さいとマジで微妙。患者に指差しても見えない。Melanomaもほとんどは患者が気づいてないんだ。患者が気づくのはSCCとMerkel cell carcinomasだけ。申し訳ないけど、「ほとんどの皮膚がんは非専門家にもすごく明らか」って言うなら、専門家は見逃して大きくしてるんじゃないかな。他の地域とは状況が違うだろうけど、俺はたくさんの経験を積めるからね。追記:Quiz気に入ったよ。ナイスワーク!27/30だった。DermatoscopeなしでNaevusとMelanomaを区別するのは不可能な時もあるから。みんな、皮膚のチェックはしっかりね。
アプリと高得点、本当によかったね!BCCは分かりにくいことが多いよね。俺も皮膚がんを主に診てるんだけど、ほとんどのメラノーマやSCCは、少し訓練すれば患者さんも自分でわかるようになると思うよ。イギリスよりもオーストラリアの方が皮膚がんの発生率が高いから、俺たちの経験に違いがあるのかもしれないね。
患者層はかなり違うだろうね。俺のところにもUK出身で子供の頃にイタリアとかスペインで日焼けしまくって、いくつか皮膚がんになった患者さんがいるよ。これからも素晴らしい活動を続けてね。
よくやった!でも、これは簡単な部分で、統計をしっかり学んだら、出力結果をどう使うかが本当の難しさだとわかるはず。あるスタートアップは分類はうまくいったけど、患者に悪影響を与えずアプリを使う方法が、分類自体よりずっと難しかったって言ってたよ。エラー率は、低くても偽陽性も偽陰性も金銭的にも精神的にも高くつくから、そこが一番の課題になるね。
コメントありがとう!このアプリの目的は診断じゃなくて患者教育なんだよ。でも、関連する統計はもっと詳しく調べてみるね!
リスクはね、みんながアプリの意図を理解せず、診断に使ってしまうことだよ。高得点が出るまで画像を見て、自分を専門家だと思い込んで、自分や友達を診断しちゃうだろうね。本当に教育できる画像セットを作る頃には、たくさんの素人皮膚科医が生まれてるよ。そうなると、本物の皮膚科医に「大丈夫」って言われても、みんな反論する気満々で押し寄せてくるだろうね。自己診断でこのパターンは何度も見てきたよ。
それがどうしたって言うの?患者に情報が少ない方が良い結果になるって言いたいの?乳がんの自己検診キャンペーンとかどう思う?患者としては、最終的に専門家任せでも、情報が多い方が絶対良いよ。あと、医者が特定の層の症状を無視することもあるしね。そういう時、患者が自分で主張できるのはすごく大事だよ。例えば、俺の友人も腹痛で何ヶ月も苦しんでたけど、医者は軽く見てたんだ。俺が付き添って主張したら、やっと適切な治療を受けられて、腎臓感染症って診断されたんだ。最初の医者の言うこと聞いてたら、まだ治ってなかっただろうね。URL: https://www.nytimes.com/2022/07/29/well/mind/medical-gasligh…
その点で、AIモデルも学ぶだろうなってことをすぐに学んだよ(君の意図じゃないだろうけどね)。紫色の丸(例えば、薄い肌に薄れたペンのインクで患部が囲まれてる画像)って、がんの強い兆候なんだってさ。😉
これ、すごいじゃん!AIをうまく使ってアイデアを実現してるね。専門家が教育ツールを作るのは、AIの良い使い道の一つだよ。でもさ、AIってほとんどの場合、過去にネットでクリエイティブなことしてた人たちから、テック投資家にお金を吸い上げるために使われてるじゃん?こういう素晴らしいプロジェクトが、「なんでガンと戦うことに反対するんだ?」みたいな反論に使われるのが、本当に残念だよ。
逆だよ。このアイデアとか関連するアイデアで、スタートアップがたくさんあるんだ。ほとんど全部が、技術的な課題はなんとかなるけど、医療や倫理的な課題がものすごく大変だって気づいたんだよ。
俺のコメントの何に対して返信してるのか、よく分かんないんだけど。専門家が知識を共有するツールを作れるようになったことへの俺の感謝?それとも、テック投資家がAIでクリエイターから金吸い上げてるってこと?それか、この素晴らしいプロジェクトがその吸い上げを正当化するのに使われるってこと?どれに返事してるの?
君が「すごいし、AIの素晴らしい活用だ」って言ってたけど、俺は色々反論があるんだ。
このアイデアは新しくないし、LLMも必須じゃない。医療アプリなのに審査システムを飛ばしてるのが問題で、自己診断の誤解や危険につながるよ。投資家への利益目的とも無関係じゃない。簡単な症例しか解決できないから、医療プロセスと連携しないとむしろマイナスになりかねないんだ。でも、作者の努力は素晴らしいし、今後の動向は注目してるよ。
AIが診断や時代遅れの医者を置き換えて、USの製薬コングロマリットを潰してほしいな。AIは公開情報で学習してるんだから、そこから得られるものは全て無料で公開されるべきだよ。そうなることを願うばかりだね。
AIが医者を置き換えるのはまだ難しいよ、エラー率が高いしね。製薬会社の問題と診断は別物だよ。AI学習データの無料公開も、全てに当てはまるわけじゃないけど、オープン化には賛成だな。
医療分野のイノベーションには巨額の資金が必要で、個人の力じゃ厳しいんだ。でも、人工膵臓みたいに、コミュニティが産業を動かす良い例もあるから、諦める必要はないね。
https://rorycellanjones.substack.com/p/wearenotwaiting-the-p…
このアプリは、医学論文の画像を使ったシンプルな教育クイズで、良性と悪性の皮膚異常を見分けるのに役立つって理解で合ってる?
もっとコメントを表示(2)
そうだよ、その理解で合ってる。でも、それがあるからって、みんなが自分で診断できるって信じちゃうのは止められないだろうね。
じゃあ、同じような画像を並べたパンフレットにも、同じような問題があるってこと?
パンフレットはね、もっと詳しい説明や文脈情報があるんだ。クイズみたいじゃないし、専門家だという印象も与えない。医療コミュニケーションの専門家が作っていて、誤解を招かないように配慮されてるんだ。このアプリにはそういった文脈や意識向上の要素が少ないから、使い方を誤るとむしろマイナスになる可能性もあるよ。例えばこれを見てよ:
https://www.kanker.nl/sites/default/files/library_files/563/…
その「ちょっとインタラクティブ」な点と、それが「高校の保健室」じゃなくて「君の家」にあるってことが、まさに大きな違いを生むんだよ。
コメントありがとう。みんながこのアプリを便利だと思ってくれて嬉しいな。AIコーディングのおかげで実現できたことだし、これは色々な分野の専門家じゃない人にも応用できると思うよ。
素晴らしいね!他の同僚にも真似するように勧めてほしいな!
これ、本当に”浸潤性黒色腫”なの?
https://drmagnuslynch.s3.eu-west-2.amazonaws.com/isic-images…
データセットのメタデータでは”浸潤性黒色腫”ってなってるけど、誤分類の可能性はあるね。肉眼やダーモスコープで無害に見えるホクロの一部が悪性の場合もあるんだ。例えば、ネボイド黒色腫の画像を見てみて。
https://www.google.com/search?tbm=isch&q=naevoid+melanoma
だから皮膚科は難しいし、AIでの画像分類は責任やリスクの面で難しいんだ。以前、僕もメラノーマの専門家だったけど、年に1~2回、見た目は問題ないのに悪性だった患者さんを見たよ。患者さんには、ホクロが無害に見えても、数ヶ月で見た目が変化する可能性があるから、常に変化に注意することが大事だと伝えてるよ。
肉眼やダーモスコープで完全に無害に見えるホクロの一部が悪性になるのは本当に怖いね。じゃあ、全部検査しないと確実じゃないってこと?でも、リスクと費用のバランスを考えると、それは無理だよね?もし完全に良性に見える黒色腫を持つ不運な人だったら、もう運任せなの?それとも、内部に広がる前に見た目が変わるのかな?
だから皮膚科では画像診断だけでなくリスク管理も重要なんだ。うん、病変は時間とともに変化する可能性が高いよ。もし無害なホクロに見える黒色腫だったら、診断が遅れる可能性は現実的にあるね。でも、これはごく一部の皮膚がんでしかないし、ほとんど見えないような体の内部に発生する他の種類のがんになる可能性の方がはるかに高いってことを覚えておいてね。
これは患者としてイライラする点の良い例だよ。確かに、そういうがんは皮膚がん全体のほんの一部かもしれないけど、もし僕がそれにかかったら、それは僕の皮膚がんの100%だよね。皮膚がんがどれだけ深刻かを考えると、たとえ自己負担だったとしても、この病変をどうやって検査できるか、少なくとも医者に教えてほしいな。
誤診やそれによる不要な治療のリスクがあるから、そういう検査はかえって死ぬ確率を上げたり、寿命を縮めたりする可能性があるんだ。ケースバイケースだけど、だから僕たちは、高齢者などの高リスクの人以外には、がんの一般的な検査をしないんだよ。
君に同意するよ。もし患者さんが特定の皮膚病変を心配して除去を希望するなら、たとえ無害に見えても、特にそれが新しいものや変化しているものなら、僕はそれを支持するよ。
「データセットのメタデータでは”浸潤性黒色腫”ってなってる」っていうのは、「よくわからないけど、そう書いてあるから」って聞こえて、皮膚がん学習アプリに対する信頼感が湧かないな。
うん、それは誤分類の可能性が高いみたいだね…
俺は皮膚にいろんなできものがあるから、このアプリはマジで怖いんだけど。
不安を煽るんじゃないかと心配になっちゃう。
皮膚科で毎年全身チェックしてもらうのがいいよ。
俺もずっとやってるんだけど、この前早期のBasal cell carcinomaが見つかったんだ。みんなも気をつけな!
気になるものが1つあって、DermatofibromaなのかBasal cell cancerなのかを20分もググっちゃった。
Dermatofibromaだと思うけど、やっぱり専門家に見てもらうのが一番だよね。
AIアシストコーディングの完璧な使い方だね!
専門家が作った、プログラミング的には単純なアプリってのがいい。
@sungam、もし皮膚がんのAIモデル研究してるなら、ぜひ連絡してくれ。俺のツールが役立つはずだ。
ありがとう!
でも今はその分野の研究はしてないんだ。俺の研究は主に、皮膚がんの発生におけるFibroblastsの役割に焦点を当ててるからね。
いいプロジェクトだし、学習にも役立つね。
ただ一つ懸念があるんだけど、アプリ内の“気になる”と“気にならない”の発生率が実際の人口の割合と合ってないんじゃないかな。
過剰に心配させちゃう可能性があると思うよ。
そうなんだ、その通り。
使ってる画像データセットに偏りがあるんだ。
人口分布に合わせるとガンが少なすぎて学習にならないから、次のバージョンでは50:50に近づけて、実際の分布との違いをしっかり説明するつもりだよ。
そうだね、人口比率に合わせるのは現実的じゃない。
でも、識別学習とは別に“Base rate”の教育は必要だよ。
アプリで95%正解しても、実際の成功率は低いってことをBayesian updatingで説明してくれてる。
ありがとう!
これについてはもっとじっくり調べる必要があるね。
これって“私は可愛い?”の皮膚がん版だよな。
プログラミング能力の限界があるだろ?
俺はConvnetで画像を分類して、アップロードしたら診断してくれるウェブサイトとかを考えてた。
なんでこういう製品がないんだろう?
死者数が足りないから開発されないのかね、Melanomaで死ぬのはひどいのに。