新发布!COMAP 竞赛中大型语言模型和生成式人工智能工具一文有什么内容?

一、大语言模型(LLMS)和生成性人工智能技术的兴起

这一政策的动机是由大语言模型(LLMS)和生成铝辅助技术的兴起。该政策旨在为团队、顾问和法官提供更大的透明度和指导。这项政策适用于学生工作的各个方面,从研究和开发模型(包括代码创建)到书面报告。由于这些新兴技术正在迅速发展,COMAP将酌情完善这一政策。

二、团队必须对他们所有的工具的使用公开和诚实

一个团队及其提交的信息越透明,就越有可能是他们的工作能够得到别人的充分信任、赞赏和正确使用。这些披露有助于理解智力工作的发展和对贡献的适当承认。如果没有公开和明确的引用和人工智能工具的作用,它更有可能是有问题的段落和工作可以被确定为剽窃和取消资格。

三、负责任地使用人工智能工具

解决这些问题并不需要使用AI工具,尽管它们的负责任的使用是允许的。COMAP认识到LLM和生成性人工智能作为生产力工具的价值,可以帮助团队准备他们的提案,例如,为一个结构产生初步想法,或者在总结、解释、语言润色等方面。在模型开发的许多任务中,人类的创造力和团队合作是必不可少的,而依赖人工智能工具会带来风险。因此,我们建议谨慎使用这些技术时的任务,如模型的选择和建设,协助创建代码,解释数据和模型的结果,并得出科学的结论。

四、学习记忆模块和生成性人工智能的局限性

值得注意的是,学习记忆模块和生成性人工智能具有局限性,无法取代人类的创造力和批判性思维。COMAP建议团队在选择使用LLM时要注意以下风险:

客观性: LLM生成的文本可能会出现先前发布的包含种族主义、性别歧视或其他偏见的内容,一些重要的观点可能不会被呈现。

准确性: LLM可以产生“幻觉”,即生成虚假的内容,尤其是在其领域之外使用时,或在处理复杂或模糊的主题时。他们可以生成语言学上合理但科学上不合理的内容,他们可以得到错误的事实,他们已经被证明生成不存在的引用。一些有限责任公司只接受在特定日期之前发布的内容的培训,因此呈现的画面不完整。

语境理解: LLM不能将人类的理解应用到一段文本的上下文中,尤其是在处理习语表达、讽刺、幽默或隐喻性语言时。这可能会导致生成内容中的错误或误解。

训练数据: LLM需要大量高质量的训练数据来实现最佳性能。然而,在某些领域或语言中,这样的数据可能不容易获得,从而限制了任何输出的有用性。

五、团队指南

报告中明确指出LLM或其他人工智能工具的使用情况

在报告中明确指出LLM或其他人工智能工具的使用情况,包括使用的模型和目的。请使用内联引用和参考部分。在25页的解决方案后面附加AI使用报告(如下所述)

验证内容和语言模型产生的引用的准确性、有效性和适当性

验证内容和语言模型产生的任何引用的准确性、有效性和适当性,并纠正任何错误或不准确之处。

提供引用和参考,遵循指导

提供引用和参考,遵循此处提供的指导。仔细检查引文,以确保其准确性和正确引用。

意识到剽窃的可能性

要意识到剽窃的可能性,因为LLM可能会从其他来源复制大量的文本检查原始来源,以确保你没有抄袭别人的工作。

引用和参考指南:

仔细考虑如何记录和引用团队可能选择使用的任何工具。各种风格指南开始纳入引用和引用AI工具的政策。使用内联引用并列出25页解决方案参考部分中使用的所有AI工具。

无论团队是否选择使用AI工具,主要的解决方案报告仍然被限制在25页之内。如果一个团队选择使用AI,在报告结尾处添加一个新的部分,标题为AI的使用报告。这个新的部分没有页数限制,也不会被算作25页解决方案的一部分。

例子(这不是详尽无遗的一一根据你的情况调整这些例子):
AI使用情况报告

OpenAI ChatGPT (2023年11月5日版本,ChatGPT-4)

查询1:《在AI工具中插入您输入的确切措辞》

输出:《插入AI工具的完整输出》

OpenAI Ernie (2023年11月5日版本,Ernie4.0)

查询1:《在AI工具中插入任何后续输入的确切措辞》

输出:《插入第二个查询的完整输出》

Github CoPilot (2024年2月3日版)

问题1:“将您输入的确切措辞插入到AI工具中

输出:《插入AI工具的完整输出》

谷歌巴德 (2024年2月2日版本)

查询:《插入您查询的确切措辞

输出:《插入AI工具的完整输出》

 

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注