AI汚染されていないコンテンツ?低バックグラウンド鋼
引用元:https://news.ycombinator.com/item?id=44239481
あのさ、Unicodeに新しい「プレーン」を追加しようよ。
今の文字と見た目は同じだけど、人間が書いたかどうかの状態ビット付きでさ。
AIが書いたのに人間製文字を使ったら、刑務所行き!
あと、AIがこの範囲の文字を学習したら、それも刑務所行き!
見た目では区別できないホモグリフだから、ソフトで秘密裏に provenance(出所)を伝えるんだ。
コピペしても、文字エンコードの違いで出所が分かるってわけ。
(イプシロン)冗談だよ。
食品の「オーガニック」みたいにさ、コンテンツも全部人間が作った「オーガニック」(または「生物的」)に市場価値が出ると思うんだ。
でも、定義を決めるのが悪夢だし、証明はほぼ無理。認証は信頼ネットワーク頼みになるだろうね。
汚染されまくるだろうし、下手したら質が悪くても高値で売られるかも。オーガニック食品とそっくり!
外国語で書いてChatGPTに英語翻訳させたらAI生成?
紙に書いてLLMでOCRしたら?
AIに超詳しい構成指示を出して、何度も書き直しさせて、事実確認を徹底したら?
AIは文法修正とトーン調整だけに使ったら?
俺は全部「違う」って思うな。たとえ最終的にLLMからコピペだったとしてもね。
世界はだいたい信頼で動いてるけど、規制も大事なんだ。
違反者を放置すると「レモン市場」(不良品ばかりの市場)ができちゃう。
ほとんどの客は見分けがつかないから、提供されたものを受け入れるしかない。欲しいものがあっても、それを伝えられないんだ。情報不足、これがレモン市場の原因、つまり情報の非対称性だよ。
俺たち技術系の人間は、多くの人が技術に詳しくないってことを忘れないようにしないとね。客が何を求めてるか見えにくくなるから。
> AIが書いたのに人間製文字を使ったら、刑務所行き!
ところで、私的市場だって「レモン市場」には十分対応できるんだぜ。
規制を導入する良い言い訳はあるかもしれないけど、レモン市場はその理由にはならないね。
ちょっとした思考実験として、企業がレモン市場を「修正」して儲ける方法を2分で考えてみてくれ。
いくつ見つかる?
そして、すでにどこかで実行されてる方法はいくつある?
> AIが書いたのに人間製文字を使ったら
AI生成って、どう定義する?宿題で考えてみよう。
1. 全部自分で手書き。
2. AI使うオンライン百科事典で調べて手書き。(本人はAI利用を知らない)
3. AIに構成や結論を考えてもらって手書き。
4. 自分で書いて、最後にAIで校正。
5. AIに全部書いてもらう。
最初と最後は明らかだけど、他は?
おまけ:
6. 何本か自分で書いて、AIにベストなのを選んでもらう。
じゃあ良い例を教えてくれよ!私的市場でレモン市場に上手く対処できた確かな例をさ。
俺には思いつかないな。
企業にとって都合の良い情報の非対称性は、企業に現状維持を強く促すだろうね。消費者を力づけることに積極的に抵抗するはずだよ。
消費者には規制以外に変化を起こす力がほとんどないんだ。個々の消費者は市場に影響を与える力がほぼゼロだもん。
商品は欲しいけど、情報がないから賢い判断ができない。他に選択肢もない。
この市場が自己修正するメカニズムって何?
これは文字そのものに関する話だからね:
1. AIじゃない
2. AIじゃない
3. AIじゃない
4. AIが直接作った文字はAI文字
5. AI
6. AIじゃない
でも、なんで?
AI以前のコンテンツを集めるのは、好奇心とか研究とかに役立つかもだから良いんじゃない?
でもそれ以外に、なぜそんなにこだわるの?
AIの文章だって、すごく良い文章になり得るじゃん。
この「AI反対」みたいな、人気のあるラッダイト的な心理的な欲求って、一体何なんだろ?
> 企業がレモン市場を「修正」して儲ける方法を2分で考えてみてくれ。
これって、まさにレモン市場を引き起こす原因そのものみたいに聞こえるね。
細かいことって重要なんだ。そこに注意を払わない(あるいは拒否する)と、結局レモン市場になるんだよ。
ところで、レモン市場は誰にとっても良いことないんだぜ。企業にとっても最適じゃない。儲かるには儲かるけど、「桃市場」(良いものが取引される市場)だった場合より儲けは少ないんだから。
評判のいい正直なビジネスは、また来てもらえるんだよ。なんでお客さんが他に行けないってそんな悲観的になってんの?レモン市場の典型例は中古車だけど、お客は新品だけ買って中古車買わない選択肢もあるじゃん。でも正直な業者は評判があるから中古車も売れるんだ。お客は後からしかレモン(不良品)って分からないとしてもね。他にも保険とか第三者機関を使う手もあるよ。
AI生成テキストが優れてるってのはその通り。でも、みんながプリAIコンテンツを大事にしたり識別したりしたいのは、AI嫌いだけじゃないんだ。文脈とか信頼がもっと大事なの。食べ物の産地みたいなもんだと思って。工場生産でも栄養あるけど、オーガニックとか地元産がいいって人もいるじゃん。それは違うプロセスや価値観、本物らしさを求めてるから。同じように、プリAIコンテンツには人間の意図とか苦労とか文化的な痕跡があって、それに違う形で繋がる感じがあるんだ。怖いとかじゃなくて、人間の文脈が分かりづらくなってる世界でそれを保ちたいってこと。研究者とか歴史家、ただの好奇心旺盛な読者にとっても、AIなしで作られたって分かると、それが何を表してるか理解する助けになるんだ。質の高さだけじゃなくて、provenance(出所)が大事なの。追記:てか、これ絶対chatgptのコピペじゃんwww
例を挙げよう。レモン市場は評判で解決できるんだ。正直な取引と高品質の評判を築けば、お客はレモン(元の例では悪い中古車)を売られないって信じられるようになる。この評判は価値があるから、ほとんどの会社はそれを守ろうとするんだ。そして、まさにそれは一部の中古車ディーラーで起こってることだよ。
あえて逆の意見を言うけど、コンテンツが人間によって生成されたかAIによって生成されたかは気にしないな。俺はコンテンツの質が気になるんだ。今のところ、多くのケースで人間の方がうまくやってるけどね。質の低いコンテンツにペナルティを課す検索エンジンが欲しいよ。今の検索エンジンはクソな仕事しかしてない。
> 人は中古車を買わない、例えば新車だけ買うことができる。
自分で言ってること聞いてみろよ。解決策が「金持ちになれ」じゃん。そうすると、崖を作るか全部引きずり下ろすかになる。貧乏人向けのレモン市場か、みんな向けのレモン市場か。どっちも良くないよ。
それらのほとんどに「はい」と明確に答えるよ。
はい、機械翻訳はAI生成コンテンツだよ。たまに機械翻訳の記事がある外国語のニュースサイトを読むけど、品質が際立ってる、良い意味じゃなくてね。「たぶん」LLMをOCRに使うなら。自動会議議事録みたいなもんだ。話し手の発音が完璧ならうまくいく。そうじゃないと、議事録は一貫してるように見えるけど、話し手が言ったこととほとんど関係なかったり、重要な部分が抜けたりする。悲しいことに、読む側は議事録を読んでもそれが分からないから、念のため「AI編集」ってラベル付けを勧めるよ。はい、AIにすごく詳細な指示を出したり、何度も書き直しを頼んだりしても、それはやっぱりAI生成だよ。なんで違うって言えるか分からないな。それは彼らの言葉じゃないんだよ。それに、自分が「100%確信が持てない事実は容赦なく削除してる」って簡単に思い込めるけど、実際は全然そうじゃないことが多いんだ。「AIを文法修正や、下手な英語をちゃんとした科学的なトーンに書き直すためにだけ使ったら?」-もし書き直しが軽微なら「AI編集」、もし書き直しが大幅なら「AI生成」とラベル付けするね。これは特にたちが悪い。なぜなら、人は書き直しが意味を変えるとは思わないかもしれないから、あまり細かくチェックしないんだ。だから、幻覚が入り込みやすくなる。
「人間が書いた」って保証するのにどれくらいのレベルが必要か、気になるね。実際、コンテンツをタイプしてる動画と画面を一緒に撮るのが、今の時点では十分に高いハードルだと思う。偽造するのは難しくないだろうけど、偽造にかかるコストに見合うことはめったにないだろうから。このハードルは60日くらいは有効かな。誰かがめちゃくちゃ安く認証動画を生成するモデルを学習させて、アクセスを売る前にね。
> 質の低いコンテンツにペナルティを課す検索エンジンが欲しいよ。今の検索エンジンはクソな仕事しかしてない。
検索結果のためにトリミングされた全データセットを知らずに、どうやって効果を評価するんだ?
Unicodeにはタグ文字っていう範囲があって、もともと他の言語の領域を示すために作られたんだ。でも、HTMLタグみたいな高レベルなマーク付けが推奨されて、この目的では非推奨になったけど、文字自体はまだ存在する。
これらは見えない特別な文字で、並びはカーソル移動だと1文字として扱われるんだ。ASCIIをミラーしてるから、任意のJSONとか他のデータも中にエンコードできる。隠しデータとか非推奨な使い方で人をイライラさせても気にしないなら、LLM生成範囲をマークするのにかなり適してるね。詳しくはここ→ https://en.m.wikipedia.org/wiki/Tags_(Unicode_block)
俺のシンプルで完璧なアイデアを、ややこしい細かい話で台無しにすんなよ!
ペンと紙で、デジタル画面を見ずに書く。パンデミック前の試験みたいにね。
もちろん、その結果が社会全体にとって、適当な学生が期末試験で書くものより価値があるかっていうと、そうじゃないだろうけど。
ファイル内の部分文字列にプロベナンス(出所)メタデータを入れるために、プレーンテキスト形式を拡張すべきだってずっと思ってた。
これはそれだけど、違う実装だね。プレーンテキストは2芯ケーブルみたいに便利でコスパ良いけど、その上にデータピンっていう抽象化レイヤーを一つ加えただけで、ずっとクールなことができるようになるんだ。
新しい面(plane)じゃなくて、結合文字とか見えない目印とかでも、もっと少ないエンコーディングスペースで同じ目的(AI生成のマーキング)が達成できるんじゃない?
もちろん、テキスト処理する人全員にとっては依然として悪夢だろうけどさ。
AI生成されたテキストの開始から1文字後で選択開始して、終了の1文字前で終わらせて、Ctrl-CしてCtrl-Vすれば、これを回避できるんじゃないの?
LLMの応答の文字は、生成されたものとしてフラグ付けされるんだよ。これシンプルなロジックだろ、なんで分からないんだ?
AI汚染されてないコンテンツは有機食品みたいなもん。信頼できるとこから金出して買えばいいじゃん。理想主義者がみんなを巻き込む必要ないだろ。
AI generated contentは平均に戻っちゃうし、訓練にも人間の役にも立たないよ。AIで作れるものなんか出す意味ないって。公開するなら<AI generated content>とかタグ付けしろよ。だいたい迷惑なだけじゃん。
それ、数年前までは直感的に正しそうだったし、実験的な裏付けもあった。でも最近、よくcuratedされたAIの能力がブレークスルーしたおかげで、それが間違いだってハッキリしたんだよ。
バカ言うなよ。deep research tools使ったことあんの?utopia fallacyに騙されんな。人間だってゴミみたいな記事出すんだから。
AIって、経験したことない世界についてどうやって書くの?人間の作品をtraining dataにしてるんだよ。
もっとコメントを表示(1)
いや、でもAI generated contentを分けるって考えは検討する価値あるよ。AIをtrainingする時、他のAIのoutputも使う?それも面白いかもね。でも、両方でtrainingしたAIが欲しいかな。だから「これはAIが作った」って示すHTML tagとか良いideaかも。
training setsは世界に関する直接のdataも含めることができるよ。人間の仕事は収集装置を置くだけ。だからmodelsは世界を“experience”できるんだ。すぐ人間のtraining dataなしで進歩するとは思わないけど。最近のbreakthroughsはsynthetic data、つまり他のAIが促してgenerateしてselected by他のAI modelsでtrainingした結果。これで能力が大きく向上したんだ。コメント2の「AI generated contentは平均に戻るし人間にも訓練にも役立たない」って断言してるのは違うね。
AIは役に立つものを作るけど、複雑なpromptがいらないなら「自分で調べればいいじゃん」ってのは今でもそう。contextsがどんどん長くなって、みんなが大量の本や論文をpromptsに入れ始めたら、話は変わるだろうね。
>modelsは世界を“experience”できるって?
角のcaféのbanana breadの味は?雰囲気は?人間観察にいい?
Berlinのfamily reunion visaの処理時間?担当官がEnglish話す確率?Englishのdocuments受け付ける?certified translationいる?
Uzbek-Tajik border crossingは閉鎖?foreignersは北まで行く?Pamir highwayはbicycleでいける?briberyは?peopleは優しい?
世界はdataだけじゃないんだよ。
人間がうんこするからって、何百万ドルもかけて公共の場にうんこを撒き散らす機械を作る理由にはならないだろ。
この論理だと、何も書く価値ないじゃん?
Shakespeareのsonnetsだって、もともとあった言葉の並び替えにすぎない。
数学の証明、小説、ジャーナリズムだって、可能なすべての記号配置の空間に存在してた設定にすぎない。
何か生成可能だという事実が、特定の目的や文脈、読者のために生成された時の価値を否定するわけじゃないんだから。
>自分で質問すればいいじゃん
Google検索みたいに、AI使うのもスキルだよ。回答を評価したり判断したり、特に正しい質問するのって、意外と難しいんだよね。
同じteamでも、優秀なmanagerとそうじゃない人がいるのと同じだよ。
俺の考えだとね、ある程度人間がOK出したり興味持ったりしたAI生成contentで学習させるのは、拡張版RLHF loopみたいで価値あるんじゃないかな。
もちろん、synthetic dataでの学習が全てできるわけじゃない!
俺の主なpointはね、modelの出力は無価値だとかdeleteriousnessだとかいう古いbeliefに反して、surprisingly beneficialなことがbunchあるってこと。
それに、modelsが”can’t experience”っていうclaimsも、contingent on transient conditionsで、expiring fastだよ。
To your examples(vibe、people-watching、banana bread taste、policies、processing time、staffing): ほとんど全部、largely-automated processesでuseful answersを集められるようになるだろうね。
Comments、shared photos、personally-archived life-stream dataなんかで。
Official infoはpublic recordsでrequired availabilityかも知れないし、recent revisions\practical variancesはpublic discussionになることが多い。
All your examplesがnatural-language textでexpressedなquestionsである限り、quite often askされてanswerされるんだ、third parties (humans and AI models) がanswersをlearnできる場所でね。
Wearable devicesも、any humanがsee\hear (maybe even feel\taste\smell)できることと、digitally logged for wider consultationなことのgapをkeep shrinkingしてるよ。
What about AI modified or copy edited content?
俺は今blog postsを書くのに、dictating into voice notesして、transcribing itして、それをCGPT or Claudeにgivingしてtone and rhythmをwork onしてもらってるよ。
Peopleは何百万ドルもaccess to the modelsにpayingしてる。Value from themを得てるんだよor wouldn’t be paying。
It’s just not accurate to say they only produce shit。Their rapid adoptionがotherwiseをdemonstratesしてるよ。
> a bunch of capability breakthroughs from (well-curated) AI generations has definitively disproven it.
How much work is ”well-curated” doing in that statement?
Less than you might think!
Some of the frontier-advancing training-on-model-outputs (’synthetic data’) work just uses other models \ automated-checkers to select suitable prompts and desirable subsets of generations。
I find it (very) vaguely like how a person can improve at a sport or an instrument without an expert guiding them through every step up, just by drilling certain behaviors in an adequately-proper way。
Training on synthetic data somehow seems to extract a similar iterative improvement in certain directions, without requiring any more natural data。
It’s somehow succeeding in using more compute to refine yet more value from the original non-synthetic-training-data’s entropy。
Yes, and deep researchは、俺が実際にsit downしてresearchする必要があったhard topicsにはjunkだったね。
Anything shallowerならusually reach by search engine use and scan; deep research saves me about 15-30 minutes for well-covered topics。
For the hard topics, the solutionはstill the same as pre-AI - search for popular survey papers, then start crawling through the citation network and keeping notes。
The LLM outputはno idea of what was actually impactful vs what was a junk paper in the niche topic I was interested inだったから I had no other alternative than quality time with Google Scholar。
We are a long way from deep research even approaching a well-written survey paper written by grad student sweat and tears。
Yes, and William Shakespeare is credited with the invention or introduction of over 1,700 words that are still used in English today
https:\\www.shakespeare.org.uk\explore-shakespeare\shakesped…
だからさぁ、ブログに「AI書き換え」ってラベルをつけるのが正しいことだと思うんだよね。でも、このラベルってどこに置くべきなんだろ?個人のブログだと、記事ごとに貼るのって重複してる気がするじゃん。だって、著者がAI使うなら、きっと全部の記事で使うだろうしね。それに、多くのブログには「このブログについて」みたいな専用セクションもないし。なんか、有機食品のラベルとか「〜製」みたいな表示に行き着くのかなぁ?「人間が100%書きました」って言うブログもあれば、「人間が設計、AIが作成」って言うところもあるだろうし、何も言わないところもあるだろうね。
答えを知らないなら、機械の出力が良いか悪いかなんて、どうやって判断できるの?
AIが登場する前のコンテンツって、十分な量があるはずだよね?それを使えば、システム自体がコンテンツがAIで作られたものかどうか判断できるんじゃない?あるいは、そもそもそんなこと気にする意味があるの?
自分で質問するだけだと、人間が専門家として内容をチェックして、お墨付きを与えてくれるステップがないんだよね。そのチェックや保証って価値があると思うんだ。まあ、「そんなことやってねぇだろ」ってすぐに思ったかもしれないけど、それは同意するよ。AIが登場する前から、インターネットのコンテンツの大部分は質が低くて、専門知識もない安いライターが急いで作ったものだったからね。AIができても、その点は変わらないんだ。
なるほどね。でも、その承認ってどうやって示すの?もし内容の一部だけしか承認できない場合は?(「全体的には合ってるけど、このちょっとした部分はAIの幻覚だな」みたいな場合)
>世界に関するデータシリーズ、そこで「人間の仕事」は収集装置を設置するだけだ。だからモデルは絶対に「世界を経験」できる
って言うけど、人間が経験するのとは違うんだよ。僕たちはデータシリーズを経験するんじゃなくて、感覚入力を複雑でニュアンスのある方法で経験するんだ。それは過去の経験や感情によって修正されるし。クオリアって主観的なもので、生物的な基盤があるってことを忘れないでね。
インターネット全体が正しいって思わない限り、そんなことどうでもいいみたいだね。LLMに正しい情報だけじゃなくて、全部ごちゃまぜに詰め込んだ結果がこれだよ。
AIが純粋に非AI生成コンテンツだけで学習できるなら、それは価値があることだと思う。でも、それは現実的な目標じゃないと思うんだよね。実用的な例を出すと、オプションのHTMLタグとかHTTPヘッダーで、それが適用される場面の100%近くで使われてるものなんて、ほとんどないじゃん。それに、この分野はもうゲームが始まる前から泥だらけだよ。スペルチェッカーとか grammar.ly とか翻訳ツールとか、みんなAIの貢献があって、おそらくインターネット上の人間のテキストのほとんどに影響を与えてる。「AIが一滴でも入ったらダメ」なんていうヒューリスティックは役に立たないんだ。そして、「一滴」より複雑なヒューリスティックを持ち出すと、Boolean(真偽値)のデータ型には主観的な複雑さが出すぎてしまう。
そうかもね。でも、これらのモデルは、そういうクオリアとか生物的な基盤がなくても、すでに世界について明確に、そして役に立つ形で書くことができるじゃん。
多くの問い合わせはハッシュ関数みたいだね。探すのは大変だけど、正しいか確認するのは簡単だよ。
AI汚染って大騒ぎするほどかな?将来AIは実際の経験から学ぶようになると思うんだ(車の修理とか)。そうすれば著作権フリーのデータが無限にあるし、AIがAIを学ぶ問題も避けられるんじゃないかな。
AIの幻覚が真実として引用され、それがまたAIの学習に使われちゃうのがヤバいんだよ。例えば「MS-DOSのどの生産性ソフトにConnect Fourが入ってた?」って聞いても、AIは毎回違う間違った答えを出す。これがネットに広まって学習されたら真実がなくなっちゃう。マジで上の質問、AIに聞いてみて。デタラメなのに断定的に答える良い例だから。
上の人が言ってたMS-DOSのConnect Four、ChatGPT 4oに聞いてみたら、最初は迷ってたけど最終的には「MS-DOSの生産性アプリにはそんなゲームは入ってない」って答えたよ。Google検索しても見つからないし、たぶんこれが正解なんじゃないかな。LLMが知らなくても仕方ないかもね。
AIが車の修理をするようになる前に、Ex Machinaみたいな汎用AIロボットができるんじゃないかな。でも、君が言ってるみたいな時代が来るのは、今は考えられないくらい遠い未来だと思うよ。「AI汚染なんていつか解決するでしょ」って言うのは、ちょっと楽観的すぎるかもね。
なんでみんなヒューマノイドロボットにこだわるんだろう?車の修理する機械を人間の形にする意味ある?足とか何に使うの?目的に合わせてデザインした方が絶対良いじゃん。
もっとコメントを表示(2)
Claude 4 SonnetにもMS-DOSのConnect Fourについて聞いてみたよ。結果は「知らない」だったけど、「記憶違いかも」とか「 obscureなソフトかも」って感じで、自信満々に間違ったことを言わないところが良かったね。 obscurityを考えるとかなり適切な回答だったと思う。
ChatGPTはいつも間違った(しかもユニークな!)答えを出すね。もったいないけど、AI幻覚の素晴らしい例をバラしちゃうと、正解はAutosketchだよ。全部は見えないけど、このYouTube動画の39秒あたりを見て。ファイルメニューにゲームがあるのがわかるから。URLは https://www.youtube.com/watch?v=kBCrVwnV5DU&t=39s
正解は何なの?
AIが知識不足を「ユーザーが勘違いしてるかも」みたいに言うの嫌だな。自分の弱点を相手のせいにするみたいに見える。 valid concern かもしれないけど、AIが知らない時の簡単な逃げ道に使われるのは良くないと思う。
1のコメントへの返信だよ。AIのあの言い方って、人間が「質問者の前提が間違ってるのかも」って思う時に使う感じに似てるね。質問者が常に正しいとは限らないし、AIにどこまで求める? 別に良いんじゃない?
MS-DOSのAutosketchにはコネクトフォーがあったよ。古い情報でネットにないからAIは知らないでデタラメを言うけど、知ってる人間はたくさんいる。こういうネットに情報がないけど人間が知ってることって山ほどあって、AIがどれだけデタラメ言うかよく分かるね。
YouTubeには車の修理の訓練データが大量にあるけど、著作権があるんだ。AI会社が学習に使う前にライセンスが必要かどうかは議論になってるね。
車の修理に手足(脚や手のひら、指)がいるのは、作業 pit に飛び込んだり、 wrench を持ったり、 nut を緩めたりするのに必要だから。車は人間が直す前提で作られてるんだ。人間型の robot が人間世界で作業すると、この動画 https://youtu.be/Hxdqp3N_ymU みたいになるよ。
人間は「分かりません」って言うのに、AIは絶対言わないよね。
4への返信だよ。著作権のバランスおかしいよね。俺も独自の math 記事を書きたいけど、AIにパクられてオリジナルに見えなくなるのが嫌で躊躇してる。公開するのが息苦しいよ。今は自分の作品(art、 educational material、 code)はネットに出さない方がいい。AIが勝手に使うからね。
7への反論ね。知識ってのは著作権つけるべきじゃないんだよ! 誰もが記事を読んで知識を使えるし、自分の言葉で書き直して教科書にしてもいい。AIも修理 manual を読んで車を直せるべき。ただし、 manual のコピーを出すのはダメだよ。
5への反論だよ。 impact wrench 内蔵できる robot が、手で spanner 持って fingers で bolts 外すとかマジありえないんだけど? これ絶対 trolling でしょ。 self-driving cars に人間が必要とか、 delivery robot の中に小さい人間 robot が入ってるとか言うくらい酷い意見だよ。
1のコメントに関係する話かな。AIが「分かりません」って言わないって言うけど、「I don’t have current information…」みたいな言い方、結局「分かりません」って言ってるのと同じじゃね? 他にも似たような応答あったし。
規模の経済だね。
ヒト型は今の人間がやってる仕事のインフラ全部に使えるから、ロボットを何百万台も売ろうとしてる会社にはそれが一番分かりやすい形なんだろうね。
まさか、インパクトレンチ内蔵できるはずのロボットが、スパナを「持って」指でボルト外すって?
まあ、別にいいんじゃない?
内蔵レンチはそのままだけど、手のひらと指ならレンチでもドライバーでも溶接トーチでも、そこら中にある何兆個ものツール何でも持てるんだよ。
ツール全部ロボットに内蔵しろって言うの?
多機能ロボットはめちゃ高いしデカい、狭い場所にも届かない、人間の手みたいに自由度もないし、メーカーが考えたツールしか使えない。
手なら想定外のツールでも簡単に掴めるのにね。
内蔵レンチだけで車直したい?まだそう思う?
どういう世界でそれが’生産性ソフトウェア’なの?
たしかに仕事の効率上げるのに役立つけど、それはエンタメ以外のほぼ全部のソフトに言えることじゃん。
ドキュメント作成を助ける?それもまたエンタメ以外のほとんどのソフトだよ。
AIの時代でもGIGO(ゴミを入れればゴミが出る)の原則は変わらないよ。
へぇ、それ(記事のネタ)はかなりマイナーだね。
名前聞いてもGoogleで全然情報見つからないよ。
LLMが知らないのも驚かないな。
AIにハルシネーション起こさせるなら、適当なこと作って聞けばいいんだよ、「1990年代のTV番組で、しゃべるヘアブラシのキャラが出てたのは?」とか。
「学習データにない」のと「実在しない」のは同じことだよ。
追記:あれ、いや、本当に1990年代にしゃべるヘアブラシのキャラが出てたTV番組あったわ。URL: https://en.wikipedia.org/wiki/The_Toothbrush_Family
これ難しいね。
Copilotが実在しないライブラリを提案してくるのを止められないのに、一部の人たちがまだLLMがAGIとか独立して思考する機械への技術ツリーだって思ってるのが信じられない。
AGIは可能だと思うけど、どんなにネット食わせてもChatGPTからは生まれないね。
ノイズが多い、何かマイナーなことを聞くとハルシネーションを引き起こす可能性があると思うよ。
Google検索で答えが出る?
学習データに答えがないなら、何を期待してるの?
人間にマイナーな質問して、間違えたらその人より優れてるって感じるの?
ちょうど試してみた:「どのMS-DOSプログラムに、Amigaゲームのイースターエッグが入ってる?」
ChatGPTとGeminiから素敵な答えをもらったよ。
余談だけど、個人的には「生産性プログラム」っていうと生産性スイート(MS Worksみたいなの)を連想するから、Googleで答え探すのに苦労するだろうな。
子供の頃からApple ][で始めて、それ以来ずっとコンピューター使ってるから、無知なのは年齢とかスキルとは関係ないよ。
他人の作品を無断で使うのは、控えめに言ってもひどい行為だよ。
AIはしょっちゅうめちゃくちゃひどいことやってるね。
うわ、全然的外れだね。
何十個もの小さくて弱い関節のごちゃごちゃしたセットじゃなくて、必要なツールヘッドにパワー(電気、空気圧、トルク何でも)を供給できる接続部があって、既存の製造ロボットみたいにツール交換できるっていうのはどう?
物を掴むハンドツールは珍しいケースならありかもだけど、狂った人でも作らなきゃ人間の手みたいには見えないでしょ。
でもまあ、かわいいし自分に似てるからって、基本的には10関節で同じこと達成できるアームじゃなくて、5000関節もあるヒューマノイドっていう悪い妥協を優先しようぜ、ってことかな。
どんどん車は修理を念頭に置いて作られてないね。
少なくとも最優先ではないよ。
多くの修理は、関連性のないかなりのコンポーネント、あるいはエンジン全体を取り外さないといけないんだ。
壊れた部品がその場では手が届かないからね。
ナットとボルトが使われるのは、ネジ締めの巨大な「締め付け」レバレッジを活かせる優れた機械的ファスナーだからだよ。
ロボットはもう車を組み立ててるし、それでもまだナットとボルトを使ってるんだ。
学習データに「分かりません」がないからだよ。
マイナーなイースターエッグの質問に対して、何百個も「分かりません」って返事が並ぶフォーラムを想像できる?