用AI重新构想软件测试:一种可复用且可扩展的设计

Yunbo Ni

中文演讲 2025-07-27 11:25 GMT+8  (ROOM : 主会场 - 颐和厅) #5minstalk

随着人工智能驱动的软件测试(AI4Testing)需求日益增长,业界亟需通用且高效的框架来利用大语言模型(LLM)提升软件质量。然而,现有基于LLM的测试方法普遍存在两大局限:生成的测试程序过于简单化,而与LLM的密集交互又会带来高昂的计算成本。

我们提出了一种创新框架,将测试过程解耦为两个独立阶段:离线阶段与在线阶段。离线阶段利用LLM生成大量小型但功能丰富的代码片段;在线阶段则通过策略性复用与组合这些片段,构建出复杂的测试程序。这种设计显著提升了AI辅助测试的效率和表现力。

我们将该理念具象化为名为LegoFuzz的工具,应用于C编译器测试领域。实验结果令人瞩目:在GCC和LLVM中共发现66个缺陷,其中近半数是现有LLM工具未能检测到的严重误编译问题——这类缺陷不仅危害性大且极难捕捉。

该框架展现了模块化、基于复用的设计理念在AI4Testing中的潜力,同时揭示了超越编译器测试的广阔应用前景。其灵活架构使其能轻松适配各类软件系统,并可无缝集成到工业级持续集成(CI)流程中。

讲师:


Yunbo Ni: 即将入读香港中文大学博士项目,研究方向为软件测试。

我目前是南京大学软件工程专业的本科生,师从SSCT实验室的冯洋教授,研究兴趣涵盖编程语言与软件工程领域。

2025年秋季,我将加入香港中文大学(CUHK)攻读博士学位,由李少华教授指导。