“ 執筆および研究におけるAI利用の概要アメリカ数学科学研究所(AIMS)は、学術論文および研究における人工知能(AI)の役割が増大していることを認識しています。ChatGPTのようなAIツールは、アイデア生成の支援、ライターズブロックの克服、編集プロセスの効率化など、変革の可能性を提供します。しかし、AIMSはこれらの技術の限界を理解し、学術的および科学的誠実性を維持するために責任ある利用をすることの重要性を強調しています。人間の監督と説明責任は、公表されるコンテンツの正確性と信頼性を確保するために引き続き不可欠です。これらのガイドラインは、著者がAIツールを効果的に自身の業務に統合しつつ、学術出版の最高水準を維持することを支援します。
“ 支援型AIツールと生成型AIツールの比較支援型AIツールと生成型AIツールの区別を理解することが不可欠です。Grammarly、Curie、LanguageToolなどの支援型AIツールは、提案、修正、改善を提供することで、ユーザーが作成したコンテンツを強化します。これらのツールは、独立して作成されたコンテンツの明確さを洗練し、向上させます。ChatGPTやDALL-Eのような生成型AIツールは、テキスト、画像、翻訳を含むオリジナルのコンテンツを生成します。主に生成型AIによって作成されたコンテンツは、その後の人間の修正があったとしても、「AI生成」とみなされます。この区別を理解することは、適切な開示と責任ある利用のために不可欠です。
“ 生成型AIツールの利用ガイドライン生成型AIツールを使用する場合、著者は学術的誠実性を維持するために特定のガイドラインを遵守する必要があります。第一に、提出時にAIツールの使用を開示すること。第二に、大規模言語モデル(LLM)は不正確または誤解を招く情報を生成する可能性があるため、AI生成コンテンツの正確性、妥当性、適切性を慎重に検証すること。第三に、出典と引用を綿密に確認し、適切な引用を確保すること。第四に、確立された引用規則に従って、AI生成コンテンツを適切に引用すること。第五に、提出物に盗用された資料が含まれていないことを確認することで、盗用および著作権侵害を回避すること。第六に、AI生成テキストの潜在的なバイアスに注意し、包括性と公平性を確保すること。第七に、LLMの潜在的な不正確さや知識のギャップを含む限界を認識すること。第八に、AIツールは共同著者として認められないこと、そして著者がその作業に対して責任を負うことを覚えておくこと。最後に、AI生成コンテンツに関連する最新の開発と倫理的課題を常に把握しておくこと。
元のリンク: https://www.aimsciences.org/index/GuidelinesforAI
コメント(0)