其次,人工智能产生偏见的原因可能不只来源于算法本身,也可能来自于人为因素,比如由于个体经历和认知不同而造成训练样本选取的偏向。企业可以选择适当的程序和方法检验用于训练算法模型的样本数据,确保其遵守组织的道德准则和反歧视原则;尽管不论通过何种方法,都很难做出对每一方都公平的决定,但企业可以基于某种客观准则调优人工智能系统,以降低偏见,使决策尽可能公平。 再次,由于人工智能数据和系统可能因错误、恶意攻击等原因失效而产生严重后果,所以必须从一开始就将安全纳入到人工智能开发过程中,确保安全覆盖所有人工智能系统、数据和通信领域。 此外,要想让人们信任人工智能系统,就有必要及时向利益相关方提供必要的说明和解释,使黑盒变透明。企业可以利用特定的方法和程序,使人工智能的机制和模型更好地被它的最终用户所理解,从而降低运营、声誉和财务方面的风险。 |