人之所以为人,肯定是存在原因的,而这个原因是因为人有反思的能力,人可以站在自己的思维之外去看待自己的思维。由于这种能力(当然也可能被滥用,变得疑神疑鬼),我们得以在思维或方法上比以前进步,进而有了各种各样实用的知识与经验(参照目前全球书籍出版物已经达到几亿本,这些都是前人的经验)帮我们抵抗风险。最近的工作项里运营工作占据了大部分,在这个过程中我遇到了一些事情和有了一点体会,于是很想通过文字的方式记录下来,将自己的体会与反思进行整理,最终沉淀为个人的经验,那么我对这个世界的理解便又多了一些。
一件事或一个流程在前人不断地重复与体验下,最终可能会输出相关的经验或秘诀。这本身是非常有用的,因为会对后来人起到很大的帮助,后来人不需要再去经历已经被证明是错误的动作或想法。运营工作最好的状态是保持符合预期不出错的前提下有新的经验或秘诀出现,让运营工作变得更人性化,人的参与程度更低,机器做大部分工作来解放人的劳动力。
运营工作与人性的相互影响是运营工作中最核心的基础。我们有一个常识,就是人难免会犯错,通过各种案例或统计得到的数据可以证明这个观点,因此十全十美的人是不存在的,犯错了可以给自己以宽慰,避免东想西想,造成心里内耗。但基于信息系统的运营工作要求精确性,这与人性产生了冲突。举个例子,威胁检测需要确定的数据来匹配,不可能因为两个数据项非常相似就可以认定它们是一样的。在威胁检测场景中,A团队需要给B团队输出相关数据,A团队的员工A1将整理好的数据提供给A团队的A2对接人,由A2对接人将其传递给B团队。在这个过程中,理想情况下是不会出现问题的,但是由于无法避免的人性,A2对接人拿到数据后进行格式转换时因为人工参与复制错了一个数据,导致该数据在B团队的抽样检查中被发现是异常数据,还好提前发现了错误的数据,避免了未来可能引起的影响。
在这个案例里,我们能学到的一个经验是不要相信任何人(这里是指特定场景下的人工衍生物),任何人工衍生物在威胁检测信息系统中都是不可信的。因为有不可知的因素影响,比如服务器内存需要有纠错机制,但是依然还是有极端情况可能被宇宙射线影响导致比特数据翻转,我们得到的共识是出现异常数据的概率无法做到0%,因此我们需要有一套能让概率尽量达到0%的流程或系统,而这个流程或系统就是为了对抗我们无法避免的人性。在上面的案例中B团体选择抽样检查的方式简单地得到数据是否存在异常的概率是合理的,因为抽样就是统计学中很重要的手段,他们也是长期的实践得到的做法,而我犯了一个非常初级的错误。其次更严谨的做法是建设一套更细节更多维的偏自动化的检查系统,提前发现异常数据避免更大的影响。
不同团队之前涉及数据流动或交互时对运营工作也存在不少的影响。我们往往会优先站在自己的角度考虑问题,这是合理的,因为需要趋利避害,很少情况会站在对方团队考虑问题,这样子在威胁检测中就会出现类似重视数量多于质量的情形。举个例子,评比的时候以多取胜,但事实是多的并不一定是合乎标准的,如果我们面对的是一个整体系统,长此以往肯定影响。我们越在意某个事物,就会把判断能力进行阉割,从而过分地聚焦这个事物,缺失的判断力会导致这个事物出现的越来越多,但真实情况是多出的部分往往并不是我们需要的真实数据,这与情报心理学中提及的过分归因也有相似之处。
因为有上述的心理活动,往往导致我们给出的数据不一定完全符合其他团队的标准与要求,但团队与团队之间必定存在隐形的信任链。因为“我”信任“你”,同时“你”信任“我”,所以你们或他们提供的数据我们会直接使用,虽然直观上效率是很高的,但是却存在隐形的代价。最终当这种流程持续的时间越来越长后,一定会有异常的反馈被发现。因为总是有概率在数据里面存在数据提供者原本也不希望存在的数据,即使我们能理解他们是无意造成如此的,但对整个系统的效果而言是受其影响。
针对上述这种情况,作为运营人员,我们需要做到的一点是建立溯源追责机制,谁发起谁负责。这个方法是惩戒机制的应用。在误报非常敏感的场景下,需要格外谨慎,甚至于不能依据“谁发起谁负责”的原则简单地使用这些数据,一定要确保无误报,这是一种需要追求的工作态度。在这一方面,我做的不好,遇到了一个很值得反思的案例。因为存在隐形的信任链,所以错误地将流行木马的配置提取后获取的IP信息划定了信誉为恶意的IP,然而因为没有实际测试过恶意文件是否真正使用这个IP信息用来通信,单纯地相信恶意信息配置提取的结果,就导致了很明显的误报问题。关于为何会相信恶意信息配置提取的结果,主要是依赖于自身这3年时间不断地遇到此类文件,但均没有出现过这种情况下的误报。这里想表达的还是上述的观点,不要相信任何人,包括自己,我们要相信科学的流程与思路,因为我们很难找到真相,但是科学可证伪,至少能告诉我们哪些是假的,我们所要做的是找到最合理的流程帮助我们。
总的来说,作为一个运营人员,在运营工作中确实存在非常核心的理念与流程,这些是必不可少的。
1、不要相信任何人工衍生物,包括自己以前认为无懈可击的经验;
2、不要优先站在自己的角度考虑问题得到标准,要先站在对方的角度去考虑问题来改变自己的“正确”标准;
3、要尽量相信机器,专业的做法是要多引入流程来减少概率(例如我们在威胁检测中会关注误报,所以要有一个去误报系统),更严谨的做法是有灰度机制来避免高概率的误报;