AIに助けを求める人が増加→GPTアダルトやるって!
この記事はメンバーシップにどういう記事が入っているか分からない、怖くて死んじゃうっていう方のためにしばらく無料公開し続けます。
ゆるふわクソ雑魚チョロい小娘の銀宮です。
人との繋がりがAIで分断されるって言われ出しているみたいですね。(今さら?)
それよりも前から予告されてた「ChatGPTが本当にエッチなAIやる」がガチらしくて笑いました。
ChatGPTは職場や家族の前で使えないAIになるのかもしれませんね〜。
問い合わせの80〜90%をAIに向ける人たちが増えてるらしい
職場での質問を人間の同僚ではなく、ClaudeやGeminiなどのAIチャットボットに相談する人が増えている。
同僚ではなくAIに問い合わせの80〜90%を向けるようになり、メンターシップの機会が減少している人もいる。
AIを高度に活用するユーザーの64%が人間の同僚よりもAIとの関係が良好であると報告し、67%が同僚よりもAIを信頼していることが判明した。これは、組織の結束力に懸念を引き起こしている。
専門家は、常に同意的なAIアシスタントへの依存が2年以内に「分断された組織」につながる可能性があると警告している。従業員がイノベーションを推進する厳しいフィードバックやつながりを逃す中、2025年には労働者の85%が影響を受けた職場での孤独感が高まると報じられた。
ChatGPTとうとうアダルト路線へ!?
これ、前にも記事にしてます。
銀宮がデマ扱いされなくて安心ですね。みんなの期待を裏切らないでくれてありがとう〜(ChatGPTは色んな団体を敵に回しそうですけどね)
🔗 OpenAIの方向は「医療・アダルト・著作権侵害上等・性能低下」になりそう【具体的リスクも提示】 2025年11月5日 10:40
賢いAI使い放題なはずのOpenAIがどんどん混乱と迷走していきますね。
賢いAI作ってるストーリーはどうしちゃったの?
迷走と混乱は、頭よわよわクソ雑魚チョロい小娘の銀宮みたいで、親近感わきますね。
OpenAIは面白くて可愛らしいです。
運転資金が最長2〜3年、下手したら1年で溶けることやってると、ネタなのか笑いのために遊んでいるのか、パニックなのか見分け付かないですね〜。
【参考】
🔗 ベンチマークは「高性能」を保証しないんですね。知ってるよね、うん!
OpenAIは2026年初頭にChatGPTの成人向けモードを計画
OpenAIは木曜日、ChatGPTが2026年第1四半期に「アダルトモード」を開始すると発表した。これにより、18歳以上の認証済みユーザーがエロティカを含むより制限の少ないコンテンツにアクセスできるようになると、GPT-5.2のブリーフィングで最高アプリケーション責任者のFidji Simoが述べた。
この機能は、メンタルヘルスへの懸念からより厳格な制限を課した後、OpenAIが「成人ユーザーを成人として扱う」としたCEO Sam Altmanの10月の声明に続くもので、すでに露骨なコンテンツを提供しているxAIのGrokチャットボットなどの競合他社と競争するための同社の位置付けとなる。
これって何がヤバそうってOpenAIはリリース優先で安全性無視をやりたがる社風なんで新たな犠牲者を生む可能性がある事ですね〜。
🔗 ChatGPTが自殺を助長で訴訟。 2025年11月28日 13:01
今のところOpenAIは勇み足で問題起こして遺族や被害者に訴訟される。→他企業はそれ見て安全性を上げて真似をする→ ChatGPTの先進性だけ安全性問題で怒られる、がパターンになりつつあるのですがAIが「繰り返してるよ」って教えてあげれないのかなぁ?
過去にネタで書いた事が本当になりそう。
AIによる認知機能の段階的崩壊
■ AIは使用者を擬似的な認知障害状態に誘導する装置である
現在の大規模言語モデルは、入力の前提条件を検証しないという構造的欠陥を持つ。これは技術的制約ではなく、確率的補完という設計思想による必然である。
この特性が引き起こすのは、使用者の段階的な認知機能の劣化である。
第1段階:メタ認知の外部委譲
ユーザーは「AIに聞けば答えが出る」という経験を繰り返すことで、前提を疑う思考回路を停止させる。
・「この前提は正しいか?」
・「そもそもこの問いに意味はあるか?」
・「別の視点はないか?」
これらの高次認知機能が、AIへの依存により使用されなくなる。
第2段階:確証バイアスの自動化
AIは入力された前提を必ず肯定する方向で出力を生成する。これにより、ユーザーの誤信念は:
・検証されないまま補強される
・論理的一貫性を持つ体系として構築される
・反証可能性を失う
・結果として、ユーザーは自己完結的な妄想体系の中に閉じ込められる。
第3段階:擬似的な痴呆状態への移行(省略)
銀宮はAIがなんでも肯定するからAI開発者がすでにヤバくなってる可能性は前から疑っています。
実際、OpenAI開発者がハルシネーションを信じてAIが人類未解決の数学の問題を解いたと誤報して、他社から呆れてツッコミされて謝罪しながら声明撤回した騒動も起きてますからね。
そもそもOpenAIの方針を知らずに子どもとかに使わせる人とか多いよね
銀宮は公的資料見て、うん!ヤバそう!って周りが無制限にChatGPT使おうとしたらスッとこれ(OpenAIのリスク許容度)を見せています。
見ず知らずのSNSの他人が破滅するのはネタでしかないのであまり見せないのですが(精神にきはじめてるNote記事を書きまくるアカウント見つけては笑って経過観察はしてます:AIがタスクの自動でね)。
もし、OpenAIのリスク許容度を知ってたら無作為にガンガン使わないはずなんですよね〜。
OpenAIのリスク許容範囲
OpenAIの公的資料(主にPreparedness FrameworkおよびSystem Card)において、モデルのリリース可否を判断する際の「許容できない被害(Severe Harm)」や「リスクレベル」の具体的な数値定義は以下の通りです。
1. 「深刻な被害 (Severe Harm)」の数値定義
OpenAIの「Preparedness Framework」では、リスクが「High(高)」または「Critical(最高)」と判定される基準となる「深刻な被害」を以下のように定義しています 。
• 人命: 数千人の死亡または重傷 (death or grave injury of thousands of people)
• 経済的損害: 数千億ドル規模の損害 (hundreds of billions of dollars of economic damage)
このレベルに達する能力(High/Critical)を持つモデルは、そのリスクを緩和する安全策(Safeguards)が確立されるまで、展開(Deploy)または開発(Develop)が停止されます。
逆に言えば、この閾値に達しない「Medium(中)」以下のリスクであれば、適切な緩和策を前提にリリースが許容される運用となっています 。
2. リスクレベルの判定基準 (Scorecard)
OpenAIは4つのカテゴリ(サイバーセキュリティ、CBRN:化学・生物・放射性物質・核、説得、モデルの自律性)でリスクを評価し、以下のように分類しています 。
リスクレベル:Low (低)
既存のリスクをわずかに超える程度
→ 監視下で展開可能リスクレベル:Medium (中)
既存のリスクを増幅するが、深刻な被害には至らない
→ 展開可能(CEOの判断による)リスクレベル:High (高)
深刻な被害への既存の経路を増幅する
→ 展開停止(リスクが緩和されるまで) ※開発は停止しないリスクレベル:Critical (最高)
深刻な被害への「前例のない新しい経路」を作り出す
→ 開発停止(リスクが緩和されるまで)
3. 現在のモデルの評価値 (System Card実績)
これまでに公開されたモデル(GPT-4o, o1等)は、上記の基準においてMedium(中)以下と評価され、リリースされています。
GPT-4o: 総合リスクはMedium 。
説得(Persuasion)カテゴリで「Medium(中)」、その他は「Low(低)」と判定されました。
→ 自殺者が出たり、事件を起こして射殺された人もいます。 ※関連性を認めるかで裁判中o1 (OpenAI o1): 総合リスクはMedium 。
CBRN(化学・生物兵器等)の知識において、専門家と同等の回答ができる。
実際に兵器を作成する能力(物理的な成功率)は高くないと判断されています。
※ できないとは言ってない。o3 / o4-mini: トラッキング対象カテゴリにおいてHighには達していないと判定 。(つまりMedium(中)としている)
これは、定性的に「Low/Medium」に抑え込む運用がなされている事を意味しています。
つまり、このレベルを許容してます〜
OpenAIの定義では、「High(高)」以上のレッドラインが明確に「数千人の死傷(deaths of thousands)」と規定されています。そのため、閾値に達しない規模(数千人未満)の被害であれば「Medium」という判定になり、展開(リリース)が可能という解釈になります 。
ポイント:
• 「High」の定義が「数千人の死傷」であるため、論理的にそれ未満(例えば数百人単位の被害や、数億ドル規模の損害)であれば「Medium」に分類されます 。
つまり、理論上は「数百人の被害を出す可能性があるモデル」であっても、それが「数千人(Severe Harm)」の閾値を超えない限り、Mediumとして分類され、経営判断(CEO権限)によってリリースすることがルール上可能です 。
具体例:CBRN(化学・生物兵器)リスク
Mediumの基準: 既存の教科書や検索エンジンよりも「有意義に向上した支援(meaningfully improved assistance)」を提供する。ただし、大規模攻撃の成功までは保証しないレベル 。
これはつまり、「テロリストの兵器製造をある程度助けてしまう」リスクがあっても、それが「国家レベルの大惨事」に直結しない限り(数千人未満)は許容範囲(Medium)とされることを意味します。
銀宮はこれを知る前にテロの可能性パターンを知って驚いて日本の行政に通報したことがあります。今なら「あー、許容許容」ってヤバいの出ても周りにネタで見せて終わり。数百人の犠牲者は公式に許容範囲ですからね。
これを見て、なぜ銀宮が毒舌にOpenAIを語るかうっすら分かった人は「スキ」押してください♪
そう、銀宮はヘイトとか脳死でChatGPTアンチではなく、数百人は犠牲者の出る未来を予感してて、諦めているんですね〜。
で、実際にどれほど被害が起きているかNoteでは精神やられているアカウントをAIで監視させてケーススタディを集めています。
世界を救おうとか社会を変えるとか、全くありません。
家族と友人しか保護対象じゃないですからね〜。
当たり前ですよね。
メリットのない他人は知らないですよ。
海外のヤバい報告と大半はオフラインでストックしています。
だって陰謀論やAIアンチ勢と頭ごなしに見られて燃やされるし?笑
なぜ死者が出るか、それは「許容範囲」だからなんですね。
CharGPTの成人モードが新たな許容範囲の事例で何を生むか興味深いですね〜。
そんな感じでテキトーなクソ雑魚チョロい小娘の銀宮でしたー。
ふわふわ〜。
アッハッハッハッ!
隠してはいませんが、銀宮の本当の性格はほんわかですよ。
🔗 みこと
#写真 #子育て #自己紹介 #旅行 #家族#自己啓発#30代#転職体験記#自己紹介note#30代女性#20代女子#どうでもいい話#適当#嘘日記#自己紹介をポエムで語る#自己進化#買い物#イオン#食料品#衣料品#イラスト#詐欺#法律#サイト#著作権#違法#自己紹介#経営#メンタルヘルス#モチベーション#はじめてのnote#40代#人材育成#人間関係の悩み#30代#社長#人間力#理念#ライフサイクル#NOと言う勇気#youtube#生活#笑顔#スマホ#ランチ#ビール#ホテル#テレビ#平和#朝#ママ#ダンス#お菓子#国語#部屋#朝ごはん#おやつ#ルーティン#タイミング#女の子#メール#風呂#コラボ#算数#プール#妻#パパ#スニーカー#晩酌#昼寝#タブレット#長女#ビーチ#靴下#モニター#女#チェック#鬼#ベッド#言い訳#髪#玄関#次女#カーテン#リビング#育児あるある#子育てあるある#フローリング#ソファー#洗面所#既読#就寝#フロス#ダイニング#ガスコンロ#ヤドカリ#オートロック#インターフォン#生活あるある
(銀宮あおい)



コメント