From fef3491b19e9afa7d1d3887d07c056b964ceee53 Mon Sep 17 00:00:00 2001 From: Jerry Lee Date: Mon, 20 Jul 2015 13:59:10 +0800 Subject: [PATCH] =?UTF-8?q?=E5=AE=A1=E6=A0=A1Part=202?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../part2-data-integration.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/log-what-every-software-engineer-should-know-about-real-time-datas-unifying/part2-data-integration.md b/log-what-every-software-engineer-should-know-about-real-time-datas-unifying/part2-data-integration.md index 2f365a7..aa68144 100644 --- a/log-what-every-software-engineer-should-know-about-real-time-datas-unifying/part2-data-integration.md +++ b/log-what-every-software-engineer-should-know-about-real-time-datas-unifying/part2-data-integration.md @@ -319,7 +319,7 @@ 在`LinkedIn`,目前每天通过`Kafka`写入超过600亿条不同的消息。 (如果算上[数据中心之间镜像](http://kafka.apache.org/documentation.html#datacenters)的消息,那么这个数字会是数千亿。) -为了支持这样的规模,我们在`Kafk`中使用了一些小技巧: +为了支持这样的规模,我们在`Kafka`中使用了一些小技巧: 1. 日志分片 1. 通过批处理读出和写入来优化吞吐量 @@ -348,7 +348,7 @@ 这些优化的积累效应是往往以磁盘和网络的速度在读写数据,即使维护的数据集大大超出内存大小。 -这些自卖自夸的介绍不意味着是关于`Kafka`的主要内容,我就不再深入细节。 +这些自卖自夸的介绍不意味着这些是关于`Kafka`的主要内容,我就不再深入细节了。 `LinkedIn`方案的更细节说明在[这儿](http://sites.computer.org/debull/A12june/pipeline.pdf),`Kafka`设计的详细说明在[这儿](http://kafka.apache.org/documentation.html#design),你可以读一下。 -----------------