「チャットGPTの法的助言で不当な訴訟に直面」日本生命アメリカ法人が16億円の損害賠償求めオープンAIを提訴
コメントを書く
自分のコメント(マイページ)ヤフコメAI要約
要約の正確性や品質を保証するものではないため、コメント全文と併せてご確認ください。
主なヤフコメは?
- AIは便利ですが、誤った情報を提供することがあり、特に専門的な分野では注意が必要であると考えています
- AIの利用においては、生成物の責任は利用者にあり、AI運営者を訴えるのは不当であるという意見もあります
関連ワードは?
- AIの誤情報
- 専門知識
- 訴訟リスク
コメント254件
- おすすめ順
- 新着順
このコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
AIが便利に使われる一方で、使い方を誤るとこんな問題も起きるのかと考えさせられます。便利な反面、専門資格が必要な分野では、誤った情報が大きなトラブルにつながることもあるんですね。AIの言うことを参考程度にとどめる判断力が、これからは求められる気がします。誰もが手軽に使えるツールだからこそ、こうしたトラブルは他人事ではないと感じます。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
AIに過度に頼り過ぎている人がいるが、まだ実用になって日が浅い。 私が専門知識を持っている趣味のとある分野で調べるとレポートが嘘だらけなのが複数経験あって怖くて使えない。一見非常にもっともらしく説得力のある文章を出力するが、理由の背景すらもでっち上げで怖く感じる。 どうやら間違った情報の方が多く流布していればそちらを拾って採用してしまうようだ。 結局裏を取るのにきちんと調べねばならず、AIに丸投げするには 何かの技術的ブレイクスルーもしくは数年かかると感じる。 少し前にニュースになった中国が日本を貶めるためにAIを活用というのも、 これを逆手に取っているような気がして怖さを感じる。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
AIは外面的には人間と同じような判断や知的作業ができるようになってきてはいるけど、責任の主体にはなり得ないということで、色々ややこしいことが起きてきていますね。 日本でも特許の申請者をAIにすることはできないと判決が出たばかりです。 ただ、AIベンダーが身を守るようになってしまうと、便利なツールにキツい枷がはめられることになりちょっと残念ではあります。 今回の場合、責任はAIベンダーでなくAI利用者に帰しても良い気がします。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
なんとなく、無料版使っている人や、ちょっと前に少し使って、決めつけている人が多い気がする。本当に1ヶ月そこらでガラッと性能変わってて、chat GPTも3日前に5.3、つい今日5.4がリリースされたばかり。どんどん進化しているから、そういう人は有料版使ってみたら驚くと思う。多分、また数ヶ月したらさらに性能アップと思う。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
昭和後期生まれで少しは使うことができるけど。使ってみてその便利さに驚かされることが多いのは事実だが、まだまだ「頼る」のは危険だなと思うことも同じくらい多い。何よりAIが発達して何でもすぐに答えを与えてくれるようになったら自分の存在価値とはなんなのだろう…とも思うようになった。全く考えることなく答えが出てしまうのは答えを得る場合は最高のツールだが、答えを導き出すまでの人間の腕の見せ所がないというか、自分なりの解釈・意見が入る余地がない感じがしてとても居心地の悪さを感じてしまう。 AIに負けぬよう人間らしい感覚と感性で考え抜いていきたいと思うこの頃
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
Geminiは医療や投資判断に関する質問を全く受け付けなかった。Geminiに理由を問い詰めたらGoogleのサービスは巨大で影響が大きく訴訟リスクを回避するための判断とのことだった。それについてChatGPTに見解を求めたら、OpenAIはGoogleほどに巨大企業ではないのでそこまで慎重にはなっていないとのコメントだった。OpenAIもリスクの多い分野は回答を避けるようになるかもしれないですね。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
日本でも他人事ではありません。日本には「非弁行為(弁護士法72条)」という厳しいルールがあり、AIが具体的な法的アドバイスを行うことへの制限はアメリカ以上に厳しいです。 AIが「それっぽい回答」を出せるようになった結果、それを信じた人間が法的な和解を勝手に破棄しようとし、企業側に多大な実務損害が出た。これは単なる「情報の検索」を超えて、AIが「無資格で実務を行った」と判断されるかどうかの大きな分岐点になります。 今後は「AIは安くて便利な道具」という段階が終わり、企業側も訴訟リスクに備えた保険料やライセンス料を価格に転嫁せざるを得なくなります。結果として、私たちが支払うサブスク料金が上がったり、無料版で答えられる範囲が極端に狭まったりする「AIコスト増」の時代に突入しそうです。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
今回の件は、AIが法律判断を行ったかどうかというより、情報を提供するサービスにどこまで責任を求めるかという問題ではないだろうか。 もし日本生命側の主張が認められると、検索サービスや一般的な情報サイトの扱いにも影響が及ぶ可能性がある。 情報サービス全体との整合性を考えると、OpenAIに法的責任をどこまで認めるかは、慎重に判断されるべき問題だと思う。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
仕事に関する専門知識を問うと、結構な確率で、改訂前の古い情報を提示したり、ケースバイケースのところ一つだけ提示したり、例外事例を検索もせずに〇〇必須としたりと、間違えた回答をします。 趣味や個人的興味について問うならともかく、特に法令や行政手続き、資格手続きなど、間違えたらアウトなものに関しては、必ず自分で確認し裏を取るようにしないと取り返しがつかない事にもなりかねないと思います。
ログインして返信コメントを書くこのコメントを削除しますか?
- このユーザーのコメントを非表示にする今後このユーザーのコメントは表示されなくなります
- このコメントを報告する
弁護士業法により、法律的助言が弁護士資格を持つものに限られているのは、誤ったアドバイスや無責任なアドバイスが重大な結果をもたらしかねないからだ。 そしてどの分野でも、AIは時々いい加減な回答をするので、仕事などの場合はこちらが間違いをチェックできる程度の知識がない限り、AIを活用できない。 そう考えると、法律の趣旨から考えて、当然オープンAIなど、AIの運営会社はAIが法律的アドバイスを行わないように制限を組み込んでおくべき。
ログインして返信コメントを書く