多臂强盗该模块实现了多臂Bandit算法,如John Myles White的书中所描述的,Bandit算法有助于确定多个选项中的最高平均奖励,而不会在错误的选择上浪费时间。传统的A/B测试使用事后结果的统计抽样;这是一种尝试不同选项的探索性方法。不幸的是,这种方法忽略了利用已知好的选择。这些算法平衡了探索新的、更好的选项的愿望,同时仍然通过使用已知的好的选项来获得尽可能多的奖励。此代码源自Bandit Algorithms for Website Optimization提供的。改进包括文档和简化的更新,使代码更加“pythonic”。包括测试以使用每个实现的算法生成测试数据。数据以制表符分隔值的形式保存在此目录中。为了方便(?),generate_plots.sh脚本将执行包含的R脚本以提供每个算法性能的比较图。最小的R设