Streamlit 实战:用 Python 构建 AI 驱动的 UI 自动化测试平台
这篇文章会带你完整走一遍:如何用 Streamlit 搭建一个 AI 驱动的 UI 自动化测试平台。过程中我会分享一些实战踩坑经验,帮你少走弯路。 效果如下: 目录 先说说我们要做什么 项目结构:为什么这么组织 核心流程:页面是怎么跑起来的 逐个模块拆解 入口文件:定好规矩再开工 状态管理:Streamlit 的灵魂 侧边栏:配置就该放边上 动态表单:最坑也最有价值 结果面板:让执行状态一目了然 配置管理:数据总要存起来 主页面:把积木拼起来 踩坑记录与最佳实践 1. 先说说我们要做什么这是一个 Midscene UI 自动化测试平台,核心能力是用自然语言驱动浏览器执行测试。比如你写一句”点击登录按钮,输入用户名和密码”,AI 就会自动理解并执行。 为了让测试人员用起来更方便,我们用 Streamlit 做了个可视化界面,主要实现这些功能: 可视化配置 AI 模型参数(不用改配置文件了) 用网页表单编写测试用例(不用写代码了) 一键执行、实时查看结果(不用切终端了) 多用例管理、分页展示(清爽不乱) 这些功能点看起来简单,但背后涉及 Streamlit 的几...
测试报告智能化实践:基于AI的日志分析与问题排查
1. 背景:做测试的同学应该有体会:Allure 测试报告里,一旦用例执行失败,那一堆日志真是看得人眼花缭乱。排查问题的时候,得在一大堆信息里反复翻找,效率特别低。 有没有办法让这个过程更省力?把问题排查和优化建议交给 AI 来做就是个不错的选择。 2. 目标: 降低日志排查成本:从 “人工在一堆杂乱的日志里大海捞针” 变成”AI 自动提取关键错误信息 + 定位核心问题”,省时又省力 提供可落地的优化方向:AI 会根据执行过程中的信息,给出具体的改进建议 3. 实现方案和效果:把用例 执行日志、错误信息、失败截图、失败重启的midscene自然语言描述通通丢给ai去分析并总结 ⚠️ 小提示:失败截图需要先转成 Base64 编码再喂给大模型,token 消耗会比较大,记得控制成本。 用例通过时效果: 用例失败时效果: 4. 资源支持多模态大模型api,doubao-seed-1-8-251228
实习日志:从功能测试到AI辅助测试
1. 业务体验 直播功能、直播带货、营销互动、等级会员、积分商城等现网环境的功能体验 发现bug后,针对问题找对应的产品、前端、后端、测试,并在coding平台提交bug单 2. 参与小车流程 根据需求文档,使用Xmind工具设计测试点 参与准现网环境的验证工作,提供测试点,验证没问题则发布全网 担任小车司机一周,参与小车的评审并分配测试资源 3. 参与独立车项目 优惠券气质换新、IM在线客服、全域营销 需求评审、技术评审、编写用例、测试用例评审、內灰/外灰/现网验证、产品体验会 内/外灰过程中大量的 发现bug、初步分析bug、对需求、拉产品/开发商量 4. UI自动化 积分商城、等级会员、积分商城等功能模块的UI自动化覆盖 UI自动化测试报告结合AI分析 UI自动化测试失败二次重启使用midscene,并搭建midscene调试工具 5. 压测凌晨简单参与、观察压测过程 工具:Jmeter、普罗米修斯、Grafana 重点关注mysql、redis、kafka的服务的cpu、内存、错误率、运行时间 6. AI实践 使用AI ID...