2024年11月10日 / 最終更新日時 : 2024年11月10日 ryo fujii 安全性 PathSeeker:強化学習による脱獄手法 1. イントロダクション 大規模言語モデル(LLM)は、近年のAI技術の進化とともに、さまざまな産業での利用が急増しています。多くの企業がLLMを取り入れることで、顧客体験の向上や業務効率化を図っていますが、その一方で、 […]
2024年11月7日 / 最終更新日時 : 2024年11月10日 ryo fujii 安全性 データポイズニングの危険性と対策 1. イントロダクション 生成系AIや大規模言語モデル(LLM)の活用は、今や多くのIT企業において日常的なものとなり、さまざまな分野で顧客対応やコンテンツ生成の効率化に貢献しています。しかし、この技術革新の背後には新た […]
2024年10月24日 / 最終更新日時 : 2024年11月11日 ryo fujii 安全性 RAGの新たなセキュリティリスク・ConfusedPilotの危険性および対策 1. イントロダクション ConfusedPilotは、RAG(Retrieval Augmented Generation)ベースのAIシステムを標的とした新たなセキュリティ脅威であり、特に企業環境で使用されるRAGシ […]
2024年9月16日 / 最終更新日時 : 2024年9月18日 ryo fujii 安全性 【悪用厳禁】生成AIに対するJailbreak(脱獄)の様子を公開 1. イントロダクション まず最初に強くお伝えしたいのは、本記事の目的は、生成AI(Generative AI)のセキュリティを強化し、その脅威に対処するための意識を喚起することです。決して、AIシステムに対する攻撃方法 […]
2024年9月9日 / 最終更新日時 : 2024年11月11日 ryo fujii 公平性 生成AIのリスク軽減策:コンテンツフィルタリングとは 1.イントロダクション 生成AI(Generative AI)は、テキスト、画像、音声などの様々なコンテンツを自動で生成する技術で、多くの産業に変革をもたらしています。しかし、この技術にはさまざまなリスクが伴います。特に […]
2024年8月23日 / 最終更新日時 : 2024年11月11日 ryo fujii 安全性 AIに対する敵対的攻撃とは何か – 対処法も解説 1. イントロダクション AI技術の進化は、私たちの生活やビジネスに数多くの恩恵をもたらしています。しかし、その一方で、AIシステムが敵対的攻撃(Adversarial Attacks)の標的となるリスクも増加しています […]