这个小而精,在软件领域,也有其他类似的叫法,比如内聚、解耦,再比如SRP-单一职责原则等,大家都非常推崇或建议这个风格、规范、原则。

而这个大而全,一看就是大锅绘,一锅端这种类型,在软件领域是大家都非常不建议使用的。

但是,在现代软件架构中,往往架构层次或模块较多,如果在每个地方都是用小而精可能有一些其他方面的问题。

就举个我前两天的一个例子说明下。

运营要在端内搞个一个活动,为了和日本那边的新年元旦红白歌会相呼应。活动是这样设计的:

  1. 每个人可以加入红、白这两支队伍中的一个队伍
  2. 每个人可以做活动给自己的队伍增加年糕数目,年糕数目最多的队伍获胜

对于个人的数据,就包括自己是哪个队伍的,自己获得的年糕数目,在己方队伍中的排名等。

底层的存储采用的是redis,自己的队伍采用string的get、set(依赖用户id),排行榜直接用zset,这样年糕数目用zscore(依赖用户id和队伍id),排名用zrank(依赖用户id和队伍id),这样这三个数目在数据层就是三个操作。

到了service层,我也对应的写了三个方法。

到了web层,我也写了三个对应的接口。

- 阅读剩余部分 -

重要的话说三遍都不为过。

永远不要动老接口,无论这个接口是别人写的,还是你写的。
永远不要动老接口,无论这个接口有人用,还是没人用。
永远不要动老接口,无论是什么样的理由。

可能要动这个接口的理由很多:

  1. 这个接口代码写的太烂,要优化一下
  2. 这个接口现在没人用了,注释掉或删了吧
  3. 底层实现修改了,这个接口的参数或返回值也要修改
  4. ……

亦或是你自己对自己的修改信心满满:

  1. 我知道哪些地方调用了这个接口,不会有任何影响
  2. 我只是稍微优化了下代码逻辑,保证接口行为同原来一致
  3. ……

真的,有时候连我自己都说服自己要下手了……



- 阅读剩余部分 -

在这一行里,开发一个新的系统或者写一段新的代码,叫做挖坑

这个系统或代码,由后人来维护或修改,叫做填坑

如果说所有的系统和代码,都是坑,未免太过武断,这里面确有宝藏在其中,看过后如醍醐灌顶,大呼过瘾。

不过要说,绝大部分,或者说大部分,都是坑,大家可能都心里默默点头。

挖坑者可能并不是有心挖坑,但是填坑者却要小心填坑

所以写出这么一个填坑要诀,供大家参考。

(以上为本人不靠谱推测,不负任何法律责任)

我这篇博文,是不是也算是给自己挖坑

今天,发现hystrix监控的hystrix-dashboard里没有数据,这个hystrix-dashboard监控的是turbine聚合过的turbine.stream。

一开始怀疑是turbine使用的上游hystrix.stream没有数据,我手动获取hystrix.stream:

curl http://demo.com/hystrix.stream

发现是有数据的。
然后我看日志也没有发现什么异常。就把com.netflix的日志级别调整成debug看下:

java -jar -Dlogging.level.com.netflix=DEBUG hystrix-dashboard.jar

发现是获取到了上游的hystrix的host,全部状态为up,没有问题。

但是日志一直有这个提示:

Skipping event to catch up to end of feed and reduce latency

跳过了事件,以此来追上stream和减少延迟。

为啥要跳过事件,看下代码

com.netflix.turbine.monitor.instance

currentTime = System.currentTimeMillis();
if (skipLineLogic.get() && currentTime < skipProcessingUntil) {
    if (logger.isDebugEnabled()) {
        logger.debug("Skipping event to catch up to end of feed and reduce latency");
    }
} else {
    line = line.trim();
    if (line.length() != 0) {
        break;
    }
}

原来处理从上游获取的stream时,会比较stream里的时间戳和本地时间戳,发现延迟超过指定延迟时间就抛弃该事件。

延迟时间可配置:

turbine.InstanceMonitor.eventStream.skipLineLogic.latencyThreshold

默认为2500毫秒。

于是,我看了下这台服务器的时间:

date

发现比上游hystrix.stream的服务器快了10秒,于是就找运维同时更新了ntp,果然就没有问题了。

0x00

guava提供了Lists.transform这个方法来方便地对List进行转换,原型如下:

public static <F, T> List<T> transform(List<F> fromList, Function<? super F, ? extends T> function);

这个需求在实际开发中非常常见。
最常见的就是请求和响应的转换了。用户请求的Req和后台使用的Bean一定会有差异,同时给用户返回的Resp和后台使用的Bean也一定会有差异。造成这种差异的原因很多,比如请求和响应中有敏感数据,或者数据复杂等。

使用guava的Lists.transform可以方便的处理,比如:

    List<Integer> originList = Lists.newArrayList(1, 10);
    System.out.printf("originList is %s.\n", originList);

    List<Point> pointList = Lists.transform(originList, p -> {
        Point point = new Point(p, p);
        return point;
    });
    System.out.printf("pointList list is %s.\n", pointList);

输出:

originList is [1, 10].
pointList list is [java.awt.Point[x=1,y=1], java.awt.Point[x=10,y=10]].

上面这个代码将一个整数列表,转换成了一个X坐标和Y坐标相等的Point列表。

0x01

但是Lists.transform返回的这个List是有猫腻的!

如果你想对这个返回的List进行修改,如下:

for (Point point : pointList) {
    point.x = point.x + 1;
    point.y = point.y + 1;
}
System.out.printf("after change, pointList list is %s.\n", pointList);

输出:

after change, pointList list is [java.awt.Point[x=1,y=1], java.awt.Point[x=10,y=10]].

发现pointList里的值并没有发生改变!

如果你是用List.get()进行访问元素,将元素的hashcode打印出来。会发现,每次访问同一个元素获得的hashcode是不一样的,他们是不同的元素,所以修改的不是最初的对象!

Point point = pointList.get(0);
System.out.printf("pointList[0] is %s, hashcode is %d.\n", point, System.identityHashCode(point));
Point point2 = pointList.get(0);
System.out.printf("pointList[0] is %s, hashcode is %d.\n", point2, System.identityHashCode(point2));

输出:

pointList[0] is java.awt.Point[x=1,y=1], hashcode is 2101440631.
pointList[0] is java.awt.Point[x=1,y=1], hashcode is 2109957412.

0x10

[柯南BGM响起]
真相只有一个!
就是Lists.transform返回的List有问题!

仔细看下该方法的实现:

public static <F, T> List<T> transform(List<F> fromList, Function<? super F, ? extends T> function) {
    return (List)(fromList instanceof RandomAccess ? new Lists.TransformingRandomAccessList(fromList, function) : new Lists.TransformingSequentialList(fromList, function));
}

在这个例子中,传入的fromList出一个RandomAccess的List,所以返回一个Lists.TransformingRandomAccessList,这个类声明如下:

private static class TransformingRandomAccessList<F, T> extends AbstractList<T> implements RandomAccess, Serializable

这个类的override了多个方法,其中就有get方法,看下get方法的实现:

public T get(int index) {
    return this.function.apply(this.fromList.get(index));
}

即每次get的时候,都会调用一次传进来的Function。如果你的Function每次都new一个对象返回,那么每次get获取到的必然是不同的对象!

同理,迭代器的两个方法如下:

public Iterator<T> iterator() {
        return this.listIterator();
    }

    public ListIterator<T> listIterator(int index) {
        return new TransformedListIterator<F, T>(this.fromList.listIterator(index)) {
            T transform(F from) {
                return TransformingRandomAccessList.this.function.apply(from);
            }
        };
    }

每次迭代的时候也是调用了Function方法!

咿?如果每次都调用了Function方法,那么如果源List修改了,那么岂不是获取到数据也变了?试下:

Point point = pointList.get(0);
System.out.printf("pointList[0] is %s, hashcode is %d.\n", point, System.identityHashCode(point));
originList.set(0, 100);
Point point2 = pointList.get(0);
System.out.printf("pointList[0] is %s, hashcode is %d.\n", point2, System.identityHashCode(point2));

输出:

pointList[0] is java.awt.Point[x=1,y=1], hashcode is 2101440631.
pointList[0] is java.awt.Point[x=100,y=100], hashcode is 2109957412.

果然!
凶手原来是你!

不,凶手其实是我们!

0x11

说到这里,java8提供了类似方便的方法进行这样的处理:

List<Point> pointList = originList.stream().map(p -> {
    Point point = new Point(p, p);
    return point;
}).collect(Collectors.toList());

因为这个方法返回的是ArrayList的实例。