数据库

  • 2022 DAMS峰会:大厂和大型银行如何在数据库改造、湖仓建设、运维转型下功夫?

    为了和大家一起探索大数据与云原生强强联合的方式、挖掘由此激发的软件发展和技术进步,第八届DAMS中国数据智能管理峰会将于2022年10月14日在上海举办,携手中国信通院云大所、京东、美团、网易、新浪、携程、唯品会、哔哩哔哩、vivo、工商银行等产研界技术领跑单位,带来大数据、数据资产管理、数据治理、数据库、运维、金融科技等领域的先进理念和最佳实践。

    2022-07-27
    0
  • 作为一名数据人,你真的了解OLTP和OLAP的区别吗?

    一、定义的区别 OLTP(on-line transaction processing)翻译为联机事务处理, OLAP(On-Line Anal…

    2022-04-27
    0
  • 2022Gdevops广州站:聚焦运维、数据库、金融科技应“云”而生的技术创新

    2022年度Gdevops全球敏捷运维峰会,将于5月13日以广州为起点正式开启! 与大家携手走过的第7个年头,Gdevops始终坚持输出技术干货、传播前沿理念与实战经验。本次广州站峰会,除了致力于帮助大家解决运维、数据库、金融科技等领域的老大难问题以外,Gdevops还希望与产学研界技术同仁一起探索云原生时代、数字化转型背景下的新趋势、新挑战和新解法。 Gdevops全球敏捷运维峰会·广州站 时间:2022年5月13日 地点:广州阳光酒店 指导单位:上海市软件行业协会、上海市计算机行业协会、中国信息通信研究院云计算与大数据研究所 主办单位:dbaplus社群 本次峰会将围绕运维、数据库、金融科技三大主题,涵盖全链路监控、DevOps、AIOps、SRE、混沌工程、“三高”设计、服务治理、安全管控等众多前沿技术,汇聚10年以上从业经验的资深老将出席演讲,给大家凝练可落地实操的指导经验。 【嘉宾讲师剧透】 【热门议题先睹为快】 运维——应“云”而生的便捷与复杂,如何扬长补短 本次【Gdevops运维专场】将探讨(持续更新): 从监控到可观测性:可观测性是云环境生产部署不可或缺的技术支撑,监控平台如何打通Metric、Trace和Log等可观测性领域的基本要素?如何借助智能算法增强可观测性能力? 智能告警:智能算法如何应用于告警规则配置、告警降噪、告警根因分析等方面,打造一个既让研发人员易用,又让运维人员好用的告警平台? SRE工具链建设:如何打造SRE工具链体系,构建可观测性、混沌实验、全链路压测等能力,有效助力业务在”事前”发现潜在问题、“事中”快速定位根因、“事后”复盘历史故障,实现服务高可靠性的目标? 混沌工程:为何业务型公司需要混沌工程?混沌工程平台如何做技术选型?如何建设并落地?如何构建大规模自动化演练机制? DevOps体系落地:如何找准DevOps落地的切入点?如何基于组件实施DevOps?如何控制风险?如何持续改进?结合互联网大厂实践解析DevOps体系的设计与落地。 数据库——走向融合与国产化,将迎来哪些突破和挑战 本次【Gdevops数据库专场】将探讨(持续更新): 高可用建设:万级实例规模下如何达成数据库可用性4个9?以此案例出发,介绍可用性管理方法论,分析不同规模下的管理重点、数据库平台在可用性保障方向的关键作用,以及可用性与成本的冲突和调和。 服务治理:电商、游戏、直播、点播类业务对热点数据、高并发、可用性和性能都有非常高的要求,在生产环境中要保证业务和数据服务的高可用,需要如何进行数据库服务治理?我们将从效率、质量、安全三方面逐层揭开完整的治理对象、思路及方案。 技术融合:融合是数据库领域的一大趋势,如OLTP与OLAP融合、云原生与分布式融合、数据库与AI技术融合、多模多引擎融合、软硬件融合等,展望这些融合带来的突破和创新。 国产化替代:加快国产化步伐,结合云化部署实现自主可控,是时代给予企业和国产数据库厂商的共同课题,让我们一起全面了解数据库国产化的趋势、演进、选型,并逐一攻克落地的痛难点。 金融科技——新监管新模式下,科技与金融如何融合创新 本次【Gdevops金融专场】将探讨(持续更新): 平台化转型:21世纪以来,国内商业银行的改革转型始终与平台化服务密不可分,近两年疫情突发更迫使银行加快平台化服务升级,在此背景下实现的科技与业务融合创新案例,值得关注和借鉴。 开源治理:越来越多金融企业踏上开源技术之路,如何更好地使用开源技术并规避其带来的风险,也随之成为一大挑战。从应用于核心系统的开源数据库说起,一起探讨开源治理之术。 智能运维:没有AI工程师能做智能化运维吗?如何找到切中运维痛点的智能化运维实施路径?如何从0到1实现智能化运维?以大型商业银行的数据库故障自愈为例,尝试解答以上这些普遍问题。 安全管控:2021年国家密集发布网络安全、数据安全行业应用方面的法律法规,在此背景下的金融行业安全管控核心诉求和策略值得探讨,重量级管控与轻量级管控的博弈如何平衡? 【峰会议程(部分)】 【关于Gdevops全球敏捷运维峰会】 Gdevops全球敏捷运维峰会自2016年创办至今,多次巡回北京、上海、广州、杭州、成都等城市。目前已成功举办近20场,每场规模1000+人次,在各地均受极佳好评。  峰会主题涵盖敏捷运维、数据库、云与架构、Fintech金融科技等重点方向,汇聚dbaplus社群数百专家资源,是与政府、企业携手打造的敏捷运维标杆盛会,全面覆盖从DBA、运维工程师到CXO等所有技术圈层、从互联网、电信、金融、交通到物流等重点行业,在业界、媒体界具有极大影响力。 【Gdevops广州站·报名方式】 限时优惠,码上报名 商务/媒体合作请联系钟女士,联系电话:14743605356 邮箱:zhongminhui@dbaplus.cn

    2022-04-08
    0
  • 如何学习数据库系统知识?

    如何学习数据库系统知识。在这个之外的学习途径,我首先推荐看斯坦福大学的数据库系统实现这本书是数据库系统实现里面的经典的经典了。

    2022-02-21
    0
  • 支付风控数据仓库建设

    作者|凤凰牌老熊 这篇文章是支付风控系统设计的第二篇,重点介绍支持支付风控的数据仓库建设。关于支付系统在风控上的具体需求,参见上一篇文章支付风控场景分析。 支付系统的风控分析需要大量的数据支撑。本文从名单、画像和图谱三个层面,分析在支付系统建设的不同阶段如何建立支持风控计算的数据仓库,详细介绍从什么地方采集数据、如何采集数据、以及如何存储这些数据。 支付风控系统在数据存储设计上和其它业务不同的地方在于数据获取与使用的流程。一般业务系统会先确定系统数据需求,再设计如何在业务流程中采集数据,以及数据的格式怎么定义。而支付风控面临的是一个无法预知的场景,需要在实践中根据当前运行情况不断调整。它会先把数据采集过来,之后才能从中发现可能存在的问题,并针对该问题制订风控规则。也就是风控是先采集数据,再使用数据。那这就涉及到一个问题,支付系统应该采集哪些数据? 是否是数据越多越好? 风控分析不仅要看交易数据,还得研究所有相关联的数据,这才能全面分析出来风险的根源,推断出需要采取的措施。因而数据采集工作对风控系统建设和演化是非常重要的。本文分析风控所需要的数据,如何采集和存储数据,建立支持风控的数据仓库。 一、数据来源 一笔交易的风险等级的计算需要考虑到多个维度。未成年人购买高档酒、促销期间羊毛客刷单、在洗钱高发地区的商户销售的物品成交价格远超实际价格。这些可疑交易的识别,仅依靠支付系统本身是无法完成的。用户的年龄、商品特点(是否高档酒)、是否促销、羊毛号的识别等,需要从各业务系统,甚至公司外部收集和用户、商品、商家、地区、手机号相关的数据,通过对这些数据进行分析,提取特征,识别潜在的风险。 1.1 内部数据 风控几乎需要收集所有相关系统的数据。 用户系统:采集用户的静态信息,姓名、性别、年龄等。风控系统不仅仅关注这些静态信息,还需要重点关注用户的行为信息,包括注册、密码修改、修改个人信息等操作,需要收集这些操作的时间、地点、设备等信息。 此外,用户之间的关系,也是风控系统需要关注的数据。 商户系统:除了采集机构的基本信息,如成立时间、注册时间、人员规模、营业额、销售额、经营范围、注册地点等, 还需要考虑到该商户关联的用户,包括法人代表、公司组织结构、主要员工信息等。 商品系统:商品的静态信息,包括类型、价格、上架时间、库存等信息; 商品的浏览、放入购物车、购买、评论、退货等用户操作,包括这些操作的时间、地点、设备等信息。 社交数据:包括评论、论坛、留言等。 业务系统:如视频系统中的观影记录、类型偏好、时间、地点、设备等信息。 当然,支付数据是风控最重要基础数据。用户在支付系统中涉及到的数据都需要收集整理来支持风控分析。包括但不限于:账户数据,订单数据,交易数据、优惠券数据、账务流水等。这些数据在支付数据库中也存在,风控所需要的数据和业务数据略有不同,除了业务数据外,风控还关心如下数据: 用户当前上下文环境,包括用户所用设备的类型、操作系统、IP地址、设备ID、所在地等,而这些数据往往并不是业务所关心的。而且记录太多的上下文数据也影响性能。账户,订单等操作实体的状态。在业务数据库中一般仅保留实体的最终状态,比如账户是否已锁定、订单是否已支付等。 而风控需要关心这些状态变更的时机,以及变更的时间间隔。例如,用户频繁更改交易密码,超正常频率提交订单等,就不是一个正常的状态。 这些数据一般可以从日志中采集。 1.2 外部数据 对于大部分业务单一、用户量不大的公司来说,其数据有限而且单一,需要使用外部数据来辅助完成风控计算。 常用的外部数据包括: 公安部的实名认证数据,包括用户姓名、身份证号信息;央行发布的各种名单,如洗钱区域,恐怖组织名单等。央行信用报告,这个查询可是要真金白银的。微博数据,一个人经常了解如何养卡,套现等内容并不是太好的事情。工商局提供的公司信息。招聘网站上的公司招聘信息。公司一直有招聘说明业务还不错。芝麻信用,这个需要申请。 二、采集方式 一般来说,风控的非实时数据采集,不能直接从线上的数据库中读取,这会把数据库打死。主要的数据采集方式有从库采集,日志采集和pingback三种方式。 2.1 数据库从库 主流数据库,如Hbase,Mysql都提供同步数据进从库的功能,读取从库不会影响主库操作。但如上所述,采用从库有如下问题: 分析所需数据和业务数据不同,还需要从其他途径补充数据。将风控所需数据和业务数据紧耦合起来了。一旦业务有变更,风控系统也需要调整。 2.2 日志 这是风控数据采集的主要方式。 业务方可以将风控所需要的数据输出到日志中,风控系统对接日志来异步采集数据。这使得数据采集不会影响业务处理主流程。 这种方式风险在于: 需要规范日志的格式,否则每个系统一套日志格式,会导致对接工作量巨大。保持日志的稳定性。一旦代码被修改,打印日志的代码被删除了,会导致日志数据无法采集的风险。需要注意日志采集系统的可靠性。目前主流的采集框架都有可能会丢失日志。虽然从我们使用的情况来还未发生这种事情,但不排除这个风险。 从技术上来说,日志采集的框架主要框架有 ELK(Elastic + Logstash + Kibana), Logstash 驻留在日志输出端采集日志,并发送到Elastic 服务器上。 Kibana则是一个日志分析的工具; Flume + Kafka + Elastic。 通过Flume进行采集,输出到Kafka,汇总到Elastic进行存储。日志分析可以在Elastic上离线非实时进行,也可以直接对接Kafka准实时分析,即流处理。 使用Storm 或者Spark都可以。 2.3 pingback Pingback指在页面上埋入脚本来监测用户的操作,特别是点击操作和键盘操作,将检测到的用户行为异步发送到服务器端。这可以侦测到用户在页面停留时间,鼠标点击的区域等信息,由此可以推断用户偏好,情绪等信息。 pingback的挑战在于如何在服务器端应对流量洪峰。pingback数据一般不直接入库,可以先写入Kafka,风控系统对接Kafka来分析pingback数据。 三、数据特征 用于支持风控计算的最终数据,在静态与动态数据为基础计算出来的带置信度的推算数据为主的离散数据,有点绕口,我们详细分析下这里涉及到的几个概念,来说明最终用来支持风控计算的数据有什么特征。 3.1 静态数据与动态数据 上述采集到的数据,大部分是静态数据。也就是这些数据一旦产生,一般不会被修改。但在分析时,还需要一些易变的动态数据来,比如用户的 年龄,每天的访问量,每天消费金额等。 3.2 原始数据与推算数据 不管静态还是动态数据,他们都是从用户输入或者系统采集的方式产生。但我们知道,互联网的数据可靠性是有问题的。网上千娇百媚的姑娘,在现实中可能是一位抠脚大汉。虽然系统中设计了复杂的表格来收集用户信息,但会提供全部信息的用户还是很少,大家对隐私内容还是捂得很紧。所以,在进行风险计算前,还需要对数据进行验证和补充。这都需要借助其他数据来进行推算,这些数据被称为推算数据。推算数据和原始数据不同之处在于它会有多个可能取值,每个值都带有置信度。完全可信为100%,不可信为0。置信度总和为1。比如正常情况下,用户的性别要么男,要么女。假如有个用户注册时选择性别女,但经常买刮胡刀,衬衣,没有买过女性用品,那实际性别为男的置信度就非常高。 3.3 离散数据与连续数据 这是从属性值的取值范围来评估。比如用户每天的订单额,一般来说是连续分布的。而性别,职业,爱好等,是离散值。一般来说,离散值更容易做分析处理,刻画特征,所以在分析前,需要对连续数值做离散化处理。 四、名单数据 名单数据是支付风控数据仓库中最重要的内容。 风控系统数据仓库建设,也一般都从名单数据开始。 名单加上简单的拦截规则,已经可以解决绝大部分风控的问题。就算在更先进的风控系统中,名单仍然是风控中的基础数据。在评估事件风险时,名单往往是用来执行第一道拦截时所用的数据。比如用户交易时使用的手机是黑名单中的手机,则必须终止本次交易。 4.1 黑白灰名单 大家都熟知黑名单与白名单,一个是必须阻止,一个是必须放行。 除此之外,还有灰名单。灰名单用于对一些高风险的用户进行监控。 这些用户的行为不是直接阻止,而是延迟交易,经人工确认无问题后再放行。 4.2 更新周期 相对其它数据来说,名单数据的更新频率不高,按天、周、月更新都有,很少有需要实时更新的内容。对于手机号,证件号等名单,一般可以采取人工更新的策略。每天评估风控数据,对确认有问题的号码,加入到黑名单中。如果采用的是第三方名单,则需要按照第三方的要求对名单做更新。 4.3 名单列表 一般来说,风控系统需要配置的名单列表有: 个人名单,如下名单是必备的(后续会及时更新),央行的反洗钱恐怖分子名单;公安部的通缉犯名单;全国法院失信被执行人名单信息公布与查询 IP名单,没有权威的IP名单。这需要在运行中积累。建立IP名单需要注意如下事项:公司内部IP,合作伙伴IP可以列入白名单列表;手机运营商的IP也要做到白名单中,封一个IP等于封掉一大批手机号;代理服务器可以列入灰名单;访问量大的IP也可能大公司的外网IP,不能仅依赖访问量来识别黑IP。 公司名单,必备名单包括央行反洗钱制裁公司名单和工商局失信企业名单 手机号名单,这也没有权威数据,电信运营商也不会提供此类服务。支付宝正在推广这个服务,但还没有公开。黑名单数据需要自主收集。 地域名单,央行公布的联合国反洗钱地区名单是必须在风控时考虑的名单,其他地域名单也需要自主收集。 协查名单, 公检法协查名单,接收到协查请求后,将人员全部信息拉黑。 4.4 名单数据存储 名单数据在使用上的特点: 使用频率高,实时性要求高。各种名单匹配基本都需要在线上做实时计算。 数据粒度小,总量大小不一,但存储空间需求都不高。大部分名单都是一些号码表,几个G的空间都能存储。 更新频率低。名单数据一般都比较稳定,按天更新 在使用中,名单数据一般直接存储在内存中,或者使用内存数据库(Redis,Couchbase)。关系型数据库可以用来保存名单数据,但不会直接被线上应用所访问,它无法满足高访问量的需求。 五、画像数据 名单数据能够快速发现用户在某个维度上的异常行为。在实际使用中,存在过于简单粗暴,一刀切的问题。比如如果限制单次购买金额为5000元,这个规则被试探出来后,攻击者会选择4999元来规避这个限制。画像技术则是尝试从多个维度来评估当前事件的风险。 比如画像刻画某用户平时主要在北京地区登录,购买习惯在10~300元之间。某一天突然发生一笔在东莞的4999元额度的消费,那这笔交易就非常可疑了。而这种交易通过规则比较难发现出来。 支付风控涉及的画像包括用户、设备、商品、地域、操作行为等。 这里重点介绍用户、设备和商品的画像。 5.1 用户画像(persona) 用户画像是从用户的角度来刻画其背景和行为习惯,为判定某交易的风险等级提供支持。 用户画像的内容包括但不限于: 人口信息:一般就叫基本信息,主要包括:姓名、性别、出生日期、出生地、民族、星座等。 联系方式:家庭地址、工作地址、手机、固定电话、紧急联系人、QQ、微信号等。 资产特征:月工资、年收入、工资外收入、房产、车等 家庭特征:婚姻状况、是否有小孩、小孩关联、家庭成员等 交易偏好:交易频率(总计、年、月、日)、交易金额(总计、年、月、日)、常用账户、交易时间偏好、交易地点偏好、交易所使用设备、交易物品、交易物品所属类别等。 行为特征,这是和业务相关的特征。比如对于电商,关注 用户浏览的物品、浏览的物品类别、购买的物品等。而对于视频网站,则关注用户查看的视频、观影时长、类别偏好、观影地点偏好等信息。 对于已登录用户,可以使用用户ID来识别并做画像,但对未登录用户,系统需要通过设备来识别。 5.2 设备画像 一个用户配备多台智能设备已经是很常见的事情了。手机,PAD,笔记本,台式机,都是常用的设备。用户在不同的设备上的行为往往是不一样的。有人偏好在电脑上寻找要购买的商品,却最终使用手机来下单,因为手机支付更便捷。 对设备进行画像,和用户画像类似,实际上是刻画使用设备的用户的特征。 此外,对于未登录用户,由于无法标识,也只能通过设备来代表这个用户。设备画像关注如下信息: 设备信息,包括设备类型、型号、屏幕大小、内存大小、CPU类型、购买时间、购买时价格、现在价格等。交易偏好,同用户画像;行为特征,同用户画像。 对设备画像来说,生成一个能唯一识别该设备的标识,即设备指纹,是数据采集中的一个挑战。设备指纹具有如下特点: 唯一性,每台机器的指纹都不同,不能重复。一致性,机器指纹在一台机器上是唯一的,不同应用,不同登录用户中取到的指纹都是一样的。稳定性,指纹不会随时间变更,不会由于外围设备变更而变更。重装应用,重装操作系统也应该保持不变。 我们将在专门的主题中介绍如何生成设备指纹。 5.3 商品画像 商品画像是从商品的角度来刻画购买或者拥有该商品的人的特性。 基本特征:名称,价格,类别,是否虚拟资产,上架时间,下架时间等促销信息:价格,开始时间,截止时间购买者特征:偏离这个特征越多,风险越大。购买时间分布,地点分布,价格分布,数量分布,年龄分布,性别分布等。 5.4 画像数据存储 画像数据有如下特点: 数据粒度大。一个用户的画像数据,成百上千个维度都正常。 大部分数据都是推算数据,也就是数据格式是带置信度的,比如 {性别: 男,80%;女,20%}; 每个维度的数据一般最终都需要离散化,比如年龄,虽然0~150的取值区间还不算稀疏,一般还会将年龄再分段。 数据量大。考虑到匿名用户和设备,上千万规模的注册用户,匿名用户和设备会在数十亿规模的量级。 数据结构不稳定。 根据业务需要会频繁添加新的数据维度,甚至添加新实体进来。 数据更新频繁。采用推算数据,每天不仅仅要计算新增数据,也需要重新计算现有数据的维度权重。 数据访问频率高。交易时计算权重,也需要使用画像数据。 很难有一个数据库能够同时满足上述的需求。画像数据存储需要综合采用多种数据库来满足不同应用上的需求。 数据写入库, 需要支持数据批量、快速地写入,Hbase是个不错的选择。数据读取库,需要支持数据高速读取, couchbase可以满足这个需求。但couchbase不能存储所有数据,这样成本太高。 可以把couchbase作为HBase的缓存来使用。写库和读库之间的数据同步。可以根据业务量选取合适的消息队列。每天更新的数据规模在百万及其以下,ActiveMQ可以满足需求;而上千万的数据,则需要使用Kafka。 六、知识图谱 画像是从群体和个体的统计角度评估事件的风险,而图谱则更进一步,从关系的角度来评估风险。 知识图谱是由Google提出来并应用到搜索引擎上,其后在多个领域都得到很好的应用。 交易是一种社会行为,所以从关系的角度来评估这个行为,能够更精确的了解行为中存在的风险。一个简单的例子,如果发现A是高风险的用户,而通过社交图谱分析,发现A经常和B有交易关系, 那B的风险等级也相应地会被调高。 图谱在本质上是一个语义网络, 是一种基于图的数据结构, 它由点和边组成的。点代表一个实体,如人、公司、电话、商品、地址等,边代表实体之间的关系。 如上所示, 如果A和B两人之间是夫妻关系, 则在图中, A和B分别被用一个节点来标识, 称为实体,他们的关系是 is_wife_of。对电话、出生日期、出生地点、公司等,也可以使用这种方式来表示。 图谱的表达能力,不仅在于描述实体之间的关系,而且通过关系还可以推理出潜在的进一步关系。 比如A是B的母亲, A是C的妻子, 则有很大的概率可以推断出来C是B的父亲。 支付风控需要像建立画像一样建立图谱,需要支持包括人,机构,地区,日期,电话,手机号,设备,商品等实体,以及实体之间的关系。图谱数据源也是和画像一样。此外,还有一些互联网数据也有利于建立图谱 百度百科,有很不错的公司,明星,电影,音乐等信息,一般仅限于国内或者中文版本的资料。由于编审并不严谨,数据质量不高。 wiki,有各种语言的版本,提供各种领域的实体,参与的专业人士多,质量较高。 各专业数据库, 知识图谱是基于图的数据结构,它的存储主要是使用图数据库。关系型数据库和Hbase等nosql数据库在处理图的关系以及关系计算上性能较差,需要专用的图数据库,当前主要的图数据库有neo4j,Titan,Jena等。neo4j是使用最多的图数据库,而且可以和spark graph集成,方便对图谱数据做处理。 七、总结 总结一下,本文将风控系统所需要的数据分为名单、画像和图谱三个主题,这三个主题也对应了风控系统发展的不同的阶段。这里列出了每个阶段所需要的典型数据,以及这些数据会如何存储。 本文来自微信公众号“凤凰牌老熊”

    2022-01-11
    0
  • 4种不适合用NoSQL数据库的场景

    4种不适合用NoSQL数据库的场景。NoSQL数据库的四个缺点不要让我们产生误解,NoSQL数据库对于许多工作负载和应用程序是非常有优势的,……

    2021-12-09
    0
  • 俄罗斯搜索巨头Yandex分拆数据库业务ClickHouse,获5000万美元A轮融资

    俄罗斯搜索巨头 Yandex 本周宣布,它已将其面向列的分布式分析数据库 ClickHouse 分拆为自己的公司。总部位于纽约市的 ClickHouse Inc. 还获得了 5000 万美元的 A 系列资金,以启动其业务。

    2021-10-13
    0
  • TigerGraph 通过图形数据库更新增强可扩展性

    10月5日消息,TigerGraph宣布其最新版本的并行图数据库可以完全由 Kubernetes 控制。

    2021-10-09
    0
  • 数据库公司 SingleStore 在 F 系列融资中获得 8000 万美元

    SingleStore 宣布成功完成 F 轮融资,获得 8000 万美元的主要资本资金。这家提供托管云数据库服务和数据库软件的数据库公司现已筹集了总计 2.64 亿美元的资金。本轮融资由 Insight Partners 领投,现有投资者 Khosla Ventures、Dell Technologies Capital、Rev IV、Glynn Capital 和 Google Ventures 以及新投资者 HPE 跟投。

    2021-09-27
    0
  • 一个小时学会MySQL数据库

    MySQL所使用的 SQL 语言是用于访问数据库的最常用标准化语言。一个小时学会MySQL数据库。

    2021-09-25
    0
  • 一文读懂元数据及其意义

    元数据是跟企业所使用的物理数据、业务流程、数据结构等有关的信息,描述了数据(如数据库、数据模型)、概念(如业务流程、应用系统、技术架构)以及它们之间的关系。

  • 数据库设计的主要步骤有哪些?

    数据库设计的主要步骤。

  • 蚂蚁自研数据库OceanBase登顶TPC-H榜单

    蚂蚁自研数据库OceanBase登顶TPC-H榜单。

    2021-05-22
    0
  • 2021 Gdevops全球敏捷运维峰会即将在广州盛大举办

    2021年度Gdevops全球敏捷运维峰会,将在5月28日以广州为起点正式启动,展开新一年精彩纷呈的技术巡演。

    2021-05-11
    0
  • 企业信息化与数字化方法探讨

    通常企业信息化的方法主要有6个,而对于企业数字化是在企业信息化方法之上进行的。

    2021-03-26
    0
关注我们
关注我们
分享本页
返回顶部