预览
上讯敏捷数据管理平台(Agile Data Management)简称ADM,是采用基于CDM架构的数据库虚拟化等**技术,为企业上中下游数据的备份恢复、数据验证、安全***、分发交付提供的面向数据全生命周期的安全管理解决方案。该产品通过自动化流程任务编排的方式实现了数据使用的成本控制、版本管理与开发利用,充分发挥了备份数据的潜在价值。实现生产数据备份恢复与异地容灾、备份数据自动化恢复与有效性验证、测试数据多副本快速交付、数据安全***。
备份数据的开发利用是唤醒大量沦为暗数据的备份数据,让数据备份即可用。预览
数据资源可视化管理,有效满足上中下游数据的政策合规ADM平台具备根据管理人员、测试需求等内容的不同进行分组划分的功能,将***过的数据进行分组管理,从下游测试数据管理的源头管控数据资源的类别,做到从源头划分类别,使下游测试数据管理形成上游数据源----中游数据中转----下游数据目标的闭环式数据使用流程,规范化的数据流程使数据管理者成为数据的负责人,自动化的资源管理也更有效地为金融行业用户提供安全的数据管理方案。同时,ADM提供对数据流转的树状拓扑结构图,可详细了解数据的来源、所属存储池、挂载的测试服务器,以及数据快照的层级关系,方便对系统全局的数据使用结构进行预览,通过可视化的结构拓扑图,**帮助用户了解下游测试网中测试数据的归属关系,完善数据流转路径,优化数据资源的合理分配,可视化功能的动态展示将助力企业向着智能化数据安全治理的方向转型。全流程化管理上讯信息敏捷数据管理平台ADM产品支持全域重删技术,从而减少需要备份的数据量、缩短备份窗口。
在典型的重复数据删除技术中,根据不同的数据备份场景选择适合的重删策略与粒度方案。在确定重删策略与粒度后,会根据输入侧不同粒度(卷级、文件级、块级)的数据采取不同的数据切分策略,并依据任务级与全局指纹库提供自适应源端的全局重删算法与策略,当前支持源端块级、文件级重删和并行重删技术。源端重删是采用基于内容的可变长数据切分算法,通过对数据块进行哈希算法的***标记,即指纹(Fingerprint),在指纹库中寻找相同的指纹。如果存在相同指纹,则表示已保存了相同的数据块,ADM则不再保存此数据块,而是引用已存在的数据块,从而节省更多的备份空间。该算法还可以智能识别已修改的数据和未修改的数据,从而避免因修改数据位移而导致的未修改数据切分到新数据块中的问题,比较大限度地提升重删性能和重删率,为避免数据备份过程中冗余网络传输与存储开销,在源端设置粗粒度前置数据校验可以明显缩小备份传输过程中的数据冗余,目的在于不备份任意一个冗余数据。
l异地数据容灾(远程复制)数字化时代,企业进行数据保护,不仅希望能够实现本地数据保护,也要有灾备中心进行异地数据保护。如此,即便本地数据中心遭遇地震、火灾等重大自然灾害或人为操作失误等事故,导致本地备份数据或生产数据发生损坏或丢失时,能够通过异地数据灾备,确保数据可恢复。ADM支持通过远程复制技术,将本地数据同步到异地灾备中心,实现异地数据容灾。基于备份任务,将生产数据备份到本地的存储池,基于远程复制任务,将本地存储池中的备份数据同步到异地存储池中,从而为生产数据提供双重保护,当本地生产数据、或备份数据丢失、损坏时,通过预先设置的容灾策略,在容灾端进行应急接管。上讯ADM产品能解决数据备份恢复、备份数据恢复验证、敏感数据处理、测试数据多副本快速交付等问题吗?
传统的备份方案大多采用周期性的“全量备份+增量备份”策略,其增量备份大多不可持续,经过一段时间就必须执行一次全量备份。因而传统的备份方案经常面临备份窗口过大的问题,而且其增量备份数据的恢复效率相对低下,因为每个时间点的恢复都依赖于上一次全备副本和上一次全备副本后的所有增量数据,恢复操作需要进行逐个迭代恢复。此外,过期增量数据的清理操作也受限于备份副本之间的依赖关系,不一定能及时被***。而长久增量备份与全量快照合成技术,即***执行全量备份,之后只对新增或改动过的数据进行增量备份,此增量备份数据是持续的,而且每个增量备份的数据副本将自动合成为全量快照副本,便于恢复。因此,长久增量备份与全量快照合成技术能够大幅度减少备份时间,节省备份数据所需的存储空间,且提升了恢复效率。长久增量备份与全量快照合成技术适用于单个应用数据量大,执行一次完全备份比较费时费力的应用场景。若用户备份数据量小,也可使用传统的全备+增备技术方式,ADM无挂载备份能够实现此方式。副本数据管理CDM产品与数据备份产品的区别?全流程化管理
上讯信息敏捷数据管理平台ADM产品的数据备份模块通过创建虚拟副本实现了本机、异机的即时挂载恢复。预览
数据分钟级提供,提升数据交付效率缩短开发周期通过部署ADM几分钟内即可创建一个数据量TB级别的虚拟数据库,进而,快速将测试数据传输到下游的开发测试环境,无需繁琐冗长的审核和等待,这一过程有效减少了下游开发测试场景中测试数据的准备时间,通常从以天计算缩短到以小时计算,时间效率提升明显,**缩短了开发测试时间,进而缩短产品的发布周期。(5)敏感数据定义识别与仿真***,保障数据流转环节的安全性通过智能定义敏感数据类型,自动发现和识别敏感数据,包括数据类型、内容、约束关系,灵活排序减少人为筛选,***精细定位敏感数据源。丰富的***算法与仿真的字典库相结合,保证***后数据仍具有业务属性,数据表间关系仍具有业务一致性,不影响数据挖掘分析数据价值。对涉及企业、个人信息的隐私数据,包括资金财产、个人、企业隐私的对照关系进行敏感数据识别,通过内置的***规则进行***处理,将数据敏感部分去隐私化,但并不失去数据挖掘的价值特征,减少数据隐私泄露带来的风险和损失,甚至降低可能发生的人身伤害和违法犯罪事件。预览