在实际工作中软件测试人员如何结合AI更好的完成我们的测试工作呢?今天我们以服务端测试接口线上巡检告警案例来分享一个使用AI生成python接口脚本批量删除垃圾数据!
一、案例如下
1. 需求背景
个人日常负责服务端测试工作,负责的某团队服务于2025.3.31晚上22:00告警
接口场景为:创建团队
接口报错如下:"已超过最大的团队数量限制"
2. 业务链路
团队服务pro_team_pod———>调三方云服务pro_cloud_services接口(创建>>获取>>删除) 场景闭环,这个过程数据业务方数据库表存一份,云存储一份
2. 分析如下
查看日志发现是调云服务接口创建报错
依据报错那首要分析是不是账户的团队真的创建的团队数量超过阈值限制,验证这点之前接口场景巡检前置创建>>删除团队这种闭环事件都是已经做过的,所以怀疑是生成垃圾数据
查询业务服务数据表以账户唯一字段为查询条件查询团队表团队数据,发现有少量几条数据并未超过阈值
查询云服务数据表以账户唯一字段为查询条件查询团队表团队数据,发现有定量的数据,这个值刚好超过业务逻辑的阈值,才导致告警
确认问题方,首先抛出问题,1.为什么业务方闭环删除团队而云服务却未同步删除;2.如何解决这批垃圾数据,先恢复线上接口巡检。
3. 解决思路
针对1点进行留存问题记录缺陷。备注好场景抛给研发
针对2点进行联系三方同学(数据量不大几百条)进行删除,他们表示无权限删除要走审批过程有点麻烦;换个思路让他们导出线上库数据表垃圾数据将表发送给我
我结合AI能力生成一个批量删除的python脚本
提问前置操作:copy出删除接口的curl,粘贴到AI对话文本框;上传表格数据到AI附件
提问方式;请通过以上接口输出一个python脚本,遍历删除附件文件里的文件数据以字段groupid为索引
4. 脚本数据
import pandas as pd
import requests
# 读取 Excel 文件
excel_file = pd.ExcelFile('C:\\Users\\***\\Desktop\\**团队.xlsx')
# 获取指定工作表中的数据
df = excel_file.parse('Sheet1')
# 从数据框中获取 groupid 列的数据
group_ids = df['groupid'].tolist()
# 设置请求头
headers = {
'cookie': '*******',
'Content-Type': 'application/json',
'Origin': '*******'
}
# 遍历 groupid 列表
for group_id in group_ids:
# 设置请求的 URL,将 :groupid 替换为实际的 groupid 值
url = f'http://****.cn/***/***/groups/{group_id}'
try:
# 发送 DELETE 请求
response = requests.delete(url, headers=headers)
# 检查响应状态码
if response.status_code == 200:
print(f'groupid {group_id} 删除成功')
else:
print(f'groupid {group_id} 删除失败,状态码: {response.status_code},响应内容: {response.text}')
except Exception as e:
print(f'处理 groupid {group_id} 时出现异常: {e}')
执行脚本批量删除垃圾数据后,再次执行巡检接口正常创建,恢复巡检后,再观察分析为何会产生垃圾数据
二、总结
AI 擅长基于结构化输入生成标准化测试脚本,但涉及跨系统协同、业务规则嵌套等场景时,仍需人工补充校验逻辑。实践表明,AI 可完成 60-70% 的基础脚本生成工作,但在复杂业务验证、动态场景处理、安全测试等领域仍需人工深度参与,形成 "AI 辅助 + 人工主导" 的协同测试模式。
更多相关技术内容咨询欢迎前往并持续关注好学星城论坛了解详情。
想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!