Apple Intelligence は今、言葉をでっち上げているのでしょうか?
LLM は非常に強力ですが、共通の弱点が 1 つあります。それは幻覚です。私たちの理解を超えた理由により、AI モデルにはまったく思いつきで物事をでっち上げる習性があります。十分に引用された情報源と関連情報があれば、答えは正確になります。すると突然、AI が虚偽の主張を押しつけたり、フォーラムの冗談めいたコメントを事実として誤解したりするのです。 (そうすることで、Google の AI 概要がピザに糊を追加することを推奨することになるのです。)一部の LLM は他の LLM よりも衝撃を受けないかもしれませんが、影響を受けない人は誰もいません。そのため、チャットボットを使用するたびに、AI が間違いを犯す可能性があることを示す何らかの警告が画面に表示されます。
Apple の人工知能プラットフォームである Apple Intelligence も例外ではありません。同社が最初に AI をリリースしたとき、通知の概要が「特典」として含まれていました。しかし、この機能がニュースアラートを誤って要約し始めると、Appleはすぐに方針を撤回しなければならなかった。たとえば、Apple IntelligenceがBBCの見出しを要約して、ユナイテッド・ヘルスケア銃乱射事件の容疑者ルイージ・マンジョーネが獄中で自殺したと報じた。同社は後にこの機能を復元したが、ニュースの概要を斜体にするなどの追加の安全策も含めた。
Apple Intelligence が新しい言葉を作っている可能性がある
私は木曜日に r/iOS サブレディットでこの投稿を見つけました。これは AI 幻覚の議論に興味深いメモを追加しています。投稿には「AIの要約に偽の言葉を使っている人はいるだろうか?」と書かれている。 Acme Weather アプリの通知概要を示すスクリーンショットが添付されています。最初の文は「その時間帯に軽い雨が降り注ぐ」と書かれています。ああ、ものすごい雨。少なくとも1時間だけですよ。待って; 吸収する?」
inbixtent は本物の言葉のように聞こえますが、実際には完全に造語です。投稿者は通知の内容を正確に共有していないため、ここから Apple Intelligence がどのような言葉に取り組んでいるのかを知ることはできません。私たちが知っていることは、投稿者は「imbixtent」を3回目撃しており、彼らは一人ではないということです。 OP が使用している天気予報アプリを揶揄するジャブ以外にも、この投稿の一部のコメントでは、Apple Intelligence が通知の概要で偽の言葉をでっち上げているのを目撃したと主張する人もいます。あるコメント投稿者は、要約には「フレムラ」があり、メールの要約には「静か」だと述べた。別の者は、2つの別々の機会に厳密にではなく、「厳密に」見たと共有しました。
これまでのところどう思いますか?
インターネット上でこの現象を示す他の例は見つかりません。また、私は個人的に iPhone で通知概要を使用していないため、この問題は見たことがありません。この問題がどの程度広がっているのか、それとも iOS の特定のバージョン、特定のデバイス、またはあるアプリに限定されているのかはわかりません。しかし、あるコメント投稿者は持論を持っています。彼らは、Apple Intelligence が使用するデバイス AI モデルが単独で元の文を短縮できない場合、対応する組み合わせを作成すると考えています。彼の言葉を借りれば、AI「yolos」は不動のような「振動言葉」だという。彼らは、Meteo アプリの概要を使用すると、このようなことがよく起こると言います。
Apple Intelligence は要約の中で単語を作り上げますか?
繰り返しになりますが、これが多数の Apple ユーザーに影響を与えるのか、それとも一部のみに影響を与えるのかは不明です。この件に関する投稿は 1 件しか見つからず、2 人のコメント投稿者が同様の経験を共有していることから、後者ではないかと思われますが、同じような経験をした方からの意見をぜひ聞きたいと思っています。 Apple Intelligence の通知概要を使用している場合は、自分で作った単語を見つけた場合はお知らせください。引き続きご利用いただくには、この機能を有効にする必要がある場合があります。