Home | Notifications | New Note | Local | Federated | Search | Logout
Note Detail
Reply to @Coro@mstdn.maud.io
tenjuu99(天重誠二)@tenjuu99@hollo.tenjuu.net (2026-02-28 16:52:12)
@Coro それに関しては、新たな発表をするまでもないことだと思います。また、それだけであれば従来通りの規約なので Anthropic が反発した理由が存在しないとおもいます。スパイ検出のためのインフラとして、なにかしらの巨大生成AI資本を必要としているという見方のほうが説得的だとおもいます。たとえば、スパイ用のソフトウェア開発をしている人がいるときに、生成AIを使った開発をしていれば事前に内容がわかるけれど、こうしたことをするためには、本質的に「大規模な」監視を必要としていると思います。
---Reply---
Coro@Coro@mstdn.maud.io (2026-02-28 17:08:17)
@tenjuu99 自社サービスでスパイウェア作成や世論誘導、危険物質の調合、自傷などの情報を検知した時は通報等を行うとのは LLM に限らず多くのサービスの利用規約に書かれているのではないでしょうか? E2EE される LINE や Telegram では技術的に運営者は覗き見出来ませんが...
まぁ、DuckduckGo AI だと匿名で LLM と話せますね。
Reply
---Replies---
tenjuu99(天重誠二)@tenjuu99@hollo.tenjuu.net (2026-02-28 17:18:40)
@Coro プライバシーに深く関わるソフトウェアになろうとしているものが、本質的に筒抜けで、また軍と協力してその情報収集に務めることが容認可能な行為だとまったく思えないのですが...。つまるところ、「大規模な」という語はただのレトリックであって、基準はいくらでも横にズラせる。現状の米国政治の現状を見て、スパイ用ソフトの作成だけでなく、たとえばデモの画策についても危険と見做すという判断をしても、疑問には感じません。軍とLLM開発企業が、かなり曖昧な協定で合意するというのはそういうことを意味すると思います。思想監視に手を出しても疑問がないレベルです。生成AIにかぎらないですが、より高度な倫理的判断基準が企業のような主体によって明示的に述べられるべきだと思います。