【论文阅读】(Security) Assertions by Large Language Models

论文笔记:(Security) Assertions by Large Language Models 来源:IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY I. 引言 计算机系统的安全性通常依赖于硬件的根信任。硬件漏洞可能对系统造成严重影响,因此需要支持安全验证的技术。断言验证是一种流行的验证技术,通过一组断言捕捉设计意图,用于非正式验证或测试检...

【论文阅读】WaDec: Decompiling WebAssembly Using Large Language Model

论文阅读笔记:WaDec: Decompiling WebAssembly Using Large Language Model 1. 来源出处 论文标题: WaDec: Decompiling WebAssembly Using Large Language Model 作者: Xinyu She, Yanjie Zhao, Haoyu Wang 会议: 39th IEEE/ACM International...

【论文阅读】Large Language Models for Equivalent Mutant Detection: How Far Are We?

阅读笔记:Large Language Models for Equivalent Mutant Detection: How Far Are We? 1. 来源出处 本文发表于《ISSTA’24, September 16–20, 2024, Vienna, Austria》会议,由Zhao Tian, Honglin Shu, Dong Wang, Xuejie Cao, Yasutaka Kamei和Ju...

《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》【大模型思维链】

的答案。 self-consistency checking 案例如下图所示: 参考文章: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models论文地址. 一文读懂:大模型思维链 CoT(Chain of Thought) 总结 那女孩对我说,说我保护她的梦💤...

language‘不能作为表名或字段名

"insert into dllinfos (dllname,dllfilename,type,functions,harm,repairmethod,issys, paths, ishorse, language, version, company) values ('" + textBox1.Text + "','" + textBox2.Text + "','" +                    ...

论文阅读-Automated Repair of Programs from Large Language Models

现在基于大语言模型,输入自然语言,生成代码的应用非常普遍。但是生成的代码正确率很低,文章以GPT-3模型的后代-Codex模型,为例,试图利用自动化程序修复(APR)技术来修复Codex产生的代码错误。 自动化修复技术接受一个有缺陷的程序和一个正确性规范,通过稍稍修改程序使其满足给定的规范来生成一个固定的程序。典型的修复工具通过推理程序语义与给定的规范来生成补丁。例如,基于语义的修复工具(如SemFix、Ang...

论文阅读-Transformer-based language models for software vulnerability detection

 「分享了一批文献给你,请您通过浏览器打开 https://www.ivysci.com/web/share/biblios/D2xqz52xQJ4RKceFXAFaDU/ 您还可以一键导入到 ivySCI 文献管理软件阅读,并在论文中引用 」 1. 源代码翻译:将C/C++高级编程语言的源代码转换为能输入transformer的格式。这样做是为了利用自然语言与高级编程语言之间的相似性。 2. 模型准备:使用大规...

论文阅读-Examining Zero-Shot Vulnerability Repair with Large Language Models

研究问题: RQ1:大型语言模型(LLMs)能否修复简单代码中的安全漏洞?RQ2:在提示的注释中改变上下文数量是否会影响 LLM 提出修复建议的能力?RQ3:在实际世界中使用 LLMs 修复漏洞时面临哪些挑战?   为了回答这些问题,作者评估了四种商业可用的 LLM 和自己本地训练的 C/C++代码模型,在各种合成、手工制作和真实世界漏洞修复场景中的表现。  确定了最有效的提示、上下文线索和生成参数(温度、采样...

GPT原始论文:Improving Language Understanding by Generative Pre-Training论文翻译

1 摘要 自然语理解包括文本蕴含、问题回答、语义相似性评估和文档分类等一系列多样化的任务。尽管大量未标注的文本语料库很丰富,但用于学习这些特定任务的标注数据却很稀缺,这使得基于区分性训练的模型难以充分发挥作用。我们展示了通过在多样化的未标注文本语料库上对语言模型进行生成式预训练,随后对每个特定任务进行区分性微调,可以实现这些任务的大幅度改进。与以往的方法不同,我们在微调过程中使用了任务感知的输入转换,以实现有效...

【CS324】Large Language Models(持续更新)

nford-cs324.github.io/winter2022/lectures/introduction/#a-brief-history [2] CS224N lecture notes on language models...
© 2024 LMLPHP 关于我们 联系我们 友情链接 耗时0.007259(s)
2024-12-08 05:51:33 1733608293