Identrics是一家研究与伟德国际1949开发公司,创建屡获殊荣的AI解决方案。它的解决方案将非结构化数据转化为可理解的知识和宝贵的见解。
该公司通过使用各种方法,例如文本挖掘,自然语言(NLG)和自然语言处理(NLP),获得了与人类的准确性。Identrics使用机器学习提供了有关任何主要语言中任何文本的见解。
身份证的首席执行官弗拉基米尔·佩特科夫(Vladimir Petkov)分享了他对当前人工智能状况的看法,包括其道德问题以及对身份证的下一步期望。
弗拉基米尔(Vladimir),您以您对AI道德的思想和专业知识而闻名。什么是道德AI,您认为AI面临哪些关键的道德问题?
普遍同意,负责人的AI意味着以不伤害人的方式使用AI。公司制定了指南,以确保它们遵循与组织核心价值相匹配的特定规则。这些准则通常解决责任或安全等问题。
作为数据科学的一部分,需要解决一些道德问题。这些包括基于种族,政治取向,性别,幻觉,事实矛盾和仇恨言论的偏见。机器学习模型的数据收集会影响它们的工作状况,从而导致偏见问题。
您能为我们提供AI和机器学习解决方案的示例,您在其中整合了其他算法以确保它们涵盖道德AI原则?
最常见的道德原则是:
- 公平
- 可靠性与安全
- 隐私与安全
- 包容性
- 透明度
- 问责制
在识别率中,我们对创建AI和机器学习模型感到兴奋,但与此同时,我们了解开发道德技术所承担的巨大责任。因此,我们的工作通过其他算法进行了微调,以避免偏见,事实矛盾,幻觉,仇恨言论等。
我们可以通过确保用来训练它们的数据来防止模型的非伦理行为,对其进行公正,监视和控制它们,事实检查和存储数据,从而适当地了解使用模型改进过程(例如人类信息处理)的过去错误(HITL)(HITL))周期,监视和检测生产环境中的异常情况,并定期重新评估培训数据。
在2021年,Identrics通过我们的抽象摘要解决方案获得了Content Management Solutions的GoldStevie®奖。我们的技术具有其他算法,可确保文本的高质量并涵盖道德标准。
在抽象性摘要中,我们对所有提示,事实证明和事实检验以及“坏单词”过滤器进行了验证,以对有毒语言进行分类。根据验证步骤的迅速工程,绝对所有的提示都被验证程序捕获。用户的反馈证实,经过验证的内容现在是正确的和100%无与伦比的。
我们相信技术的未来,但我们知道人类的作用是不可替代的。人工智能和机器学习模型是由意图使其他人更加灵活,创造性和有效的人发明和创建的。如果我们决定使机器能够做出自主决定,我们需要非常小心,并拥有许多安全系统,以确保没有一个人会受到伤害。
如今,虚假信息也是一个话题。您认为可以使用AI技术来检测它吗?
世界正面临着一个越来越多的问题,因为虚假信息和仇恨言论。得益于新技术和社交网络,假新闻比以往任何时候都更加重要,从而有助于虚假信息和宣传的传播。在这种情况下,技术既可以是刺激,也可以是解决这些问题的方法。
Identrics具有从开源来源中提取信息并在短时间内将其转化为知识的经验。我们监视了超过100万个来源,每天收集超过15-200万篇文章的数据,并使用这些信息向我们的客户提供新的见解。
我们提供解决方案,以帮助您在博客,新闻网站,论坛或其他在线社区的评论中检测仇恨言论和虚假信息。我们与合作伙伴一起工作的最新项目包括用于检测和警告仇恨言论和宣传的机器学习模型。
该解决方案的变化是:
- 仇恨媒体和社交平台的言论
- 基于样式的虚假信息检测
- 基于知识的虚假信息检测
- 基于繁殖的虚假信息检测
- 基于源的虚假信息检测
2023年对身份证有什么期望?
我们已经开发了两种主要产品已有一段时间了。在2023年,我们计划两者都发布。
其中一个项目是Kaspian,这是一个大数据传输平台,涉及大量数据仓库,并将其组织到数据流中。标识通过Kaspian提供的是一个解决方案,可用于快速简单的设置过程,完整的文档访问和全局监视。我们正准备在下一年实施Kaspian的所有功能。
我们一直在开发的其他东西是构成的。这是我们已经开发一年多的产品。它是一种量化互联网新闻的工具,该新闻将信息簇,提供新的主题趋势的广泛概述,并深入研究驱动它们的参数。