2024年11月24日 / 最終更新日時 : 2024年11月29日 ryo fujii AI戦略・ポリシー AI・LLM活用における統括部門・統括ポスト設置の重要性 1. はじめに デジタル技術の急速な進展に伴い、多くの企業が大規模言語モデル(LLM)を活用したサービスを提供しています。しかし、各部門や個人が独自にLLMを導入・運用することで、組織全体の統制が取れなくなるリスクが高ま […]
2024年11月10日 / 最終更新日時 : 2024年11月10日 ryo fujii 安全性 PathSeeker:強化学習による脱獄手法 1. イントロダクション 大規模言語モデル(LLM)は、近年のAI技術の進化とともに、さまざまな産業での利用が急増しています。多くの企業がLLMを取り入れることで、顧客体験の向上や業務効率化を図っていますが、その一方で、 […]
2024年11月7日 / 最終更新日時 : 2024年11月10日 ryo fujii 安全性 データポイズニングの危険性と対策 1. イントロダクション 生成系AIや大規模言語モデル(LLM)の活用は、今や多くのIT企業において日常的なものとなり、さまざまな分野で顧客対応やコンテンツ生成の効率化に貢献しています。しかし、この技術革新の背後には新た […]
2024年10月24日 / 最終更新日時 : 2024年11月11日 ryo fujii 安全性 RAGの新たなセキュリティリスク・ConfusedPilotの危険性および対策 1. イントロダクション ConfusedPilotは、RAG(Retrieval Augmented Generation)ベースのAIシステムを標的とした新たなセキュリティ脅威であり、特に企業環境で使用されるRAGシ […]
2024年9月22日 / 最終更新日時 : 2024年9月27日 ryo fujii 生成AIのリスク なぜ生成AIの脱獄(Jailbreak)が可能なのか 1. はじめに 生成AIは、自然言語を扱うAI技術の中で最も注目される技術の一つです。日々進化を続けるこれらのAIは、私たちの生活や仕事を便利にする一方で、悪用されるリスクもあります。その中でも特に問題となっているのが、 […]
2024年9月16日 / 最終更新日時 : 2024年9月18日 ryo fujii 安全性 【悪用厳禁】生成AIに対するJailbreak(脱獄)の様子を公開 1. イントロダクション まず最初に強くお伝えしたいのは、本記事の目的は、生成AI(Generative AI)のセキュリティを強化し、その脅威に対処するための意識を喚起することです。決して、AIシステムに対する攻撃方法 […]
2024年9月14日 / 最終更新日時 : 2024年9月14日 ryo fujii AIが社会に与える影響 生成AI時代における、人材教育を考える 1.イントロダクション 生成AI(Generative AI)の登場は、ビジネスや日常生活だけでなく、教育分野にも大きな影響を与えています。従来の教育法では対応しきれない部分が増え、AIを使いこなすためには新たな学習方法 […]
2024年9月9日 / 最終更新日時 : 2024年11月11日 ryo fujii 公平性 生成AIのリスク軽減策:コンテンツフィルタリングとは 1.イントロダクション 生成AI(Generative AI)は、テキスト、画像、音声などの様々なコンテンツを自動で生成する技術で、多くの産業に変革をもたらしています。しかし、この技術にはさまざまなリスクが伴います。特に […]
2024年9月3日 / 最終更新日時 : 2024年11月10日 ryo fujii 透明性 SHAP, LIMEを用いた予測根拠の定量化 1. イントロダクション 機械学習の技術が進展する中で、モデルの性能向上と引き換えにその内部構造が複雑化し、一般的に「ブラックボックス」と称される状況が増えています。ブラックボックスモデルとは、入力に対して出力を生成する […]
2024年8月30日 / 最終更新日時 : 2024年11月11日 ryo fujii IT統制フレームワーク QA4AIガイドラインとは – AIプロダクトの品質保証における5つの評価軸とその活用法 イントロダクション AI技術が日々進化する中で、AIプロダクトの品質保証がますます重要になっています。AIシステムが日常的に使用され、業務やサービスに深く組み込まれるにつれ、その品質を確保することは不可欠です。そこで注目 […]