「AIが国民の『知る権利』阻害する恐れ」 新聞協会、政府のAI基本計画に提言 学習データの透明性確保求める – ITmedia 2025年11月28日2025年11月28日ai 報道コンテンツが無許諾で生成AIに利用されている実態があるとし、AI事業者に対して学習データの開示と、適切な対価を支払う仕組み作りを求めている。
AI と倫理: 透明性が信頼の基盤となるのはなぜでしょうか? – Vietnam.vn 2025年11月11日2025年11月11日ai ベトナムAIコンテスト2025では、AIWSエンジェルとフィルムパークのアイデアがその創造性に感銘を与える一方で、AIWS倫理のテーマは、人工知能時代の倫理と透明性という、これまで以上に重要な議論を静...
AI 透明性の新基準 業界が迫られる「信頼と開示」の再構築 – DIGIDAY[日本版] 2025年11月5日2025年11月5日ai キャロライン・ギーガリック氏が AI 生成動画についてマーケターに話をする時、議論は常にある一点を指すように思われるリスクだ。といってもディストピア的な意味合いではなく、評判にかかわるリスクだ。IAB...
AIブラックボックス問題を解決! 特許出願「EVΛƎ(イーヴァ)フレームワーク」で透明な意思決定を実現 ~哲学がAIを動かす時代へ – PR TIMES 2025年10月9日2025年10月9日ai アミュレットプラス合同会社のプレスリリース(2025年10月9日 10時20分)AIブラックボックス問題を解決! 特許出願「EVΛƎ(イーヴァ)フレームワーク」で透明な意思決定を実現 ~哲学がAIを動...
AIが嘘をつく理由は「あなたがそれを求めているから」 – au Webポータル 2025年9月1日2025年9月1日ai なぜ生成AIモデルは、かくも多くの間違いを犯すのだろうか。その理由の一部は、AIが「ユーザーは常に正...
AIに“自らのミス”について説明させても当てにならない理由 – WIRED.jp 2025年8月22日2025年8月22日ai AIが失敗したとき「なぜそうしたのか」と説明を求めても、望むような答えは得られない。AIモデルは、そうした質問に応えられるような構造にはなっていないのだ。
Anthropicが「最大規模のAI」に対象を絞った透明性フレームワークを提案、過度な規範化を避けてイノベーションを促進 – ライブドアニュース 2025年7月8日2025年7月20日ai AIチャットボットの「Claude」を開発するAnthropicが、AI企業が安全かつ責任を持ってAIを開発するための、新たな透明性フレームワークを提案しました。このフレームワークは「最大規模のAIシ...
クリエイティブ・コモンズ、AI利用の透明性向上へ「CC Signals」を発表 – Ledge.ai 2025年6月30日2025年7月19日ai AI・人工知能関連のニュースやトレンドを高頻度で配信!最新ニュースやインタビュー、イベントレポートなどAIに関するさまざまな情報を独自の切り口で掲載
米政府の報告書、生成AIで作成? 存在しない文献を引用 – 日本経済新聞 2025年5月31日2025年7月19日ai 【ワシントン=赤木俊介】米政府が公式文書の作成に生成AI(人工知能)を利用した可能性が指摘されている。ロバート・ケネディ・ジュニア米厚生長官が主導する委員会が22日発表した報告書には存在しない論文が引...
AIが監視したAI、ウソを隠すようになる – goo.ne.jp 2025年3月25日2025年7月17日ai Image:Image:Ascannio/Shutterstock生成AIにまで嘘を隠されたら、一体誰を信用すればいいのでしょうか…。最近生成AIが「ハルシネーション」(直訳すると幻影・幻覚。AI用語...