概括这个基于交互式音频的手机上下文识别系统是作为我在苏黎世联邦理工学院硕士论文的一部分开发的。与传统的机器学习方法相比,我们使用众包音频数据来训练我们的分类模型并使其适应用户的上下文,而不是纯粹基于用户数据进行训练。因此,每个(新)上下文类的初始训练在服务器后端执行,而实时预测和对用户特定上下文的适应则在移动电话本身上完成。为了使众包模型适应用户特定的上下文,我们使用基于流的主动学习向用户询问难以分类样本的标签。为了评估这个概念,七名参与者连续四天使用上下文识别系统并记录他们实际的上下文类。总共超过286小时的音频数据被记录并分类为多达13个不同的上下文类别。在用户研究过程中实现了48.7%的总体平均准确率。与纯粹的众包模型相比,这种性能要好得多,在同一数据集上的平均准确率为28.7%,证实了所提出系统的可行性。