📖导读 AI越强大,测试工程师越不可或缺——因为AI可以干活,但无法承担责任。理由如下: 责任不可让渡:所有AI替代论忽略的根本问题是——谁为AI的失误负责?法律上,签字放行的人才承担法律责任,AI只是工具。 测试的本质不是找Bug,而是质量背书:测试工程师的核心价值在于“专业判断+承担责任”,这包含大量隐性知识和业务直觉,无法被训练数据替代。 AI带来新风险:非确定性与幻觉:大模型的概率性输出颠覆了传统测试的确定性思维,需要人类专家做最终验证和审计。 测试工程师的升维路径:从“执行者”升级为“背书者”,从“技术工…

2026年5月3日 0条评论 69点热度 0人点赞 领测老贺 阅读全文

📖 本文导读 AI质量保障不应局限于传统的"测试左移"(Shift-Left),而必须向外扩展(Shift-Out),构建覆盖全生命周期的"认知缓冲区"。AI系统的输出天然是不确定的,用传统"找Bug"的思维去测试AI,就像用尺子量海水——工具和对象根本不匹配。所以:AI质量保障的核心不是发现缺陷,而是持续构建信任。具体分三步走——用黄金验证集锚定基础正确性,用评分卡对齐团队认知,用信任衰减曲线监控演化风险。三道防线逐层递进,从"点"的校验到"面"的共识再到"线"的持续追踪,最终形成人机之间的认知缓冲区。 一年前,…

2026年4月29日 0条评论 115点热度 0人点赞 领测老贺 阅读全文

导读: AI 测试的失败看似是工具缺陷,实则是 AI 以绝对理性照见了组织长期存在的治理混乱、流程不规范、权责模糊、共识缺失等深层顽疾;AI 测试的价值不再只是 “挡 Bug”,而是成为暴露组织问题的 “显影剂”,测试工程师也从单纯的 bug 检测者转变为衔接机器理性与人类混沌的 “系统翻译官”,而真正的破局关键,是组织能否直面并解决这些被长期忽视的内部问题。 凌晨两点,两个AI吵起来了。一个说需求写得模糊,一个说数据标得离谱。李明坐在中间,突然发现自己不是在解决问题——而是在给一群装睡的人翻译梦话。 凌晨两点的会…

2026年4月27日 0条评论 157点热度 0人点赞 领测老贺 阅读全文

AI Agent测试失败越频繁,你的团队越危险 导读 我认识一个测试工程师,姑且叫他老周吧,在一家中型互联网公司干了八年,简历写出来很漂亮——主导过多次架构重构的测试工作,带过团队,经历过项目从零到一。 去年他们公司上了AI测试平台,号称能让测试效率提升十倍。老周一开始很兴奋,觉得终于可以从繁琐的手工用例里解脱出来了。 半年后我问他效果怎么样,他说很好,效率确实高了。 我又问他:那你现在主要做什么? 他愣了一下,说:审核AI生成的测试用例,看看对不对,然后执行。 我再问他:那些用例,你觉得不对的情况多吗? 他又愣了…

2026年4月17日 0条评论 1115点热度 0人点赞 领测老贺 阅读全文

这是一篇当时写作耗时耗力的文章,这篇文章是2007年CSDN杂志约稿的一篇文章,由于我曾经在神州数码软件集团的项目管理中心任职,做过大项目监理,本身又专注于软件测试的管理领域,所以编写了这篇文章。但是目前在网络上搜索了一下,已经没有了当时文章的配图了,正好接着重做网站的机缘,找一些合适的图片,重新排版一下,让这篇文章重新完整起来吧。   软件测试过程的监控方法 文/贺炘   软件开发项目的成败,很大程度上取决于三方面的配合:过程、人、技术,三方面相互制约,又相互促进。为了能更加有效的管理软件开发…

2023年7月13日 0条评论 4418点热度 1人点赞 领测老贺 阅读全文