链载Ai

标题: AI模型训练数据准确性和输出统计精确度 [打印本页]

作者: 链载Ai    时间: 昨天 15:12
标题: AI模型训练数据准确性和输出统计精确度

一、准确性原则在GDPR中的定义


Article 5(1)(d) of the GDPR:



“1. Personal data shall be: (d) accurate and, where necessary, kept up to date; every reasonable step must be taken to ensure that personal data that are inaccurate, having regard to the purposes for which they are processed, are erased or rectified without delay (‘accuracy’)”


准确性是GDPR的基本原则之一。这一法律原则要求数据控制者确保处理的个人数据“准确,必要时保持最新”,并“采取一切合理的步骤……确保在处理目的的范围内,个人数据不准确时应立即删除或更正”。


二、AI模型训练数据准确性和输出结果统计精确度


个人数据保护概念中的准确性,即关于某个人的个人数据是否正确和及时更新。但在AI模型场景下,仅考虑数据本身的准确性还不够。此时AI模型输出结果准确性同样对个人权益影响重大。AI工程师在统计建模中使用准确性来指代AI系统精确度。因此,本文讨论包括两个维度:AI模型训练数据的准确性和模型输出结果的统计精确度。



三、个人数据一定都要准确吗?


ICO指出,个人数据并不一定需要准确无误。在某些情况下,个人数据并不需要保持最新状态。个人数据是否需要准确取决于处理的目的:在某些情况下,处理过时或不准确(如本身错误的观点)的信息是合理的。



在某些情况下,数据控制者甚至不需要更新信息以保持数据的准确性。例如,如果仅出于统计、历史或其他研究目的而持有个人数据,更新数据则可能会破坏该目的。


另外,数据控制者可以合理地依赖个人在数据发生变更时主动告知,例如当地址或其他联系信息变化时。定期要求个人更新自己的信息可能是推荐的做法,但ICO不建议采取极端措施确保个人的记录是最新的,因为这可能过度收集个人数据或者增加隐私风险。


四、 如何确保训练数据准确性

模型训练数据可能是直接收集或者从第三方获取。为了避免收集数据不准确建议:



“合理的步骤或者措施”将取决于具体情况,特别是个人数据的性质以及将如何使用数据。个人数据越重要越敏感,就应该越努力确保其准确性。因此,如果正在使用数据来做出可能对相关个人或他人产生重大影响的决定,就需要更加努力地确保其准确性。


保证模型训练数据的准确性是训练高质量AI模型的关键。以下是一些通用技术方法供参考:
1.数据清洗


2.数据验证




3.数据标注


4. 数据源选择


5.数据版本控制


6.定期审查


7.使用验证集




通过以上方法,可以显著提高模型训练数据的准确性,从而提升模型的性能和可靠性。



五、如何确保AI模型训练结果的精确性


对于生成式AI模型来说,首先考虑训练数据对输出的影响,其次是输出将如何被使用。如果不准确的训练数据导致了不准确的输出,或者模型训练统计精确度低,最终导致输出对个人有影响,那么开发者和部署者可能都没有遵循准确性原则。例如,如果用户错误地依赖生成型AI模型提供的信息,可能会产生负面影响,如声誉受损、财务损失和传播错误信息。

但是生成型AI模型的输出必须准确吗?


这个问题只有在首先考虑基于生成式AI模型的应用目的是什么之后才能得到回答。


开发和使用具有纯粹创造性目的的生成型AI模型不太可能需要将确保输出准确性作为其首要任务,例如绘画、编写小说,创意和新颖性比准确性更重要。但是随着生成型AI模型越来越多地用于对人的决策,或者越来越多地被其用户作为信息来源而不是灵感来源,那么在设计和测试模型时,准确性就应该成为核心原则。


此外,正如ICO在关于人工智能和数据保护的指导方针所明确指出的,准确性原则并不意味着生成式AI模型的输出必须达到100%的统计精确度。AI系统统计精确度水平取决于模型的使用方式,取决于是否模型针对个人/群体做出什么样的决策。对个人权益的影响越高,则需要较高的统计精确度。例如,模型用于筛选审批贷款额度或者是否聘用。


确定模型输出结果的统计精确性通常涉及以下技术方法,供参考:




1.定义评估指标


2.分割数据集


3.构建混淆矩阵




4.计算指标


5.置信区间


6.统计检验


7.评估真实数据


8.误差分析


六、目的与准确性之间的联系


如前所述,决定生成式AI模型输出精确度的关键因素是该模型的特定用途。因此,确保模型的最终应用与其准确性水平相适应的清晰披露对于开发者、部署者和最终用户来说至关重要。



如果模型的统计精确性不足,开发者为其设想的应用目的也不需要准确性,那么开发者应采取技术和组织控制措施,确保该模型不被用于需要准确性的用途。这可能包括在部署者与客户签订的合同中包含限制使用类型的合同条款,或者分析客户在通过API访问模型时的使用情况(当模型被访问/调用时)。


开发者还应评估和披露所谓的“幻觉”的风险和影响,即不正确和意想不到的输出。这些输出可能由于生成式AI模型的随机性而产生。如果没有相应的评估和披露机制来评估和传达不准确性的可能性和影响,用户可能会错误地依赖生成式AI工具提供的信息,而实际上模型在胡说八道。


总的来说,当基于生成式AI模型的应用程序面向个人使用者时,监控模型的被使用的场景尤为重要。开发者和部署者都需要仔细考虑并确保模型不被超出其准确度水平的方式使用。这可能包括:







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5