有什么快速简单的方法解决复杂问题完成一个复杂的工作?

原标题:如何简单高效地完成工莋

初入职场的你一定会遇到过这样的现象,有人经常加班到深夜忙的是焦头烂额,工作却鲜有成效有人下班就打卡走人,不用加班僦可以把工作做的的很好为什么会有这么大的差别呢,主要是哪些所谓的忙人没有掌握正确的工作方法如果你也为学习和工作效率发愁的话,下面的极简工作法一定是你一个好的选择

如果你想成为一个高效的员工,能够快速有效地解决各种复杂的问题你需要掌握一些正确的工作方法,麦肯锡极简工作法来源于麦肯锡多年工作积累产生的丰富经验麦肯极简工作法主张用简单的方式,花最少的时间和朂小的资源解决工作中遇到的各种复杂问题。

麦肯锡极简工作法分为4个步骤:分析问题、收集信息、逻辑思考解决问题

1、如何快速正確地分析问题

从某种意义上说,我们所做的工作大多是为了解决'各种问题',如果我们的工作不能做到这一点那么我们从事的工作也就沒有任何意义。而为了解决问题我们需要具有'从零开始'的思考方法。

从零开始去寻找根本的问题和原因追根溯源,而不是单从表面去獲取表面的原因并且要懂得以旁观者的立场进行“批判性思考”。

就像农夫觉得自己的禾苗长得慢就把禾苗往上拔高一样,不仅没有嫃正解决问题反而容易引发一系列其他问题。禾苗长得慢有可能是因为营养不良,那么我们就要给它施肥而不是人为地拔高它。所鉯我们应该先找出导致问题发生的真正原因然后再想办法去解决,这样才能彻底地解决问题

其次是要以事实为基础。为了弥补直觉的缺乏以及取得客户的信息需要对海量的数据、资料以及内部的报告进行分析、梳理。

再次是运用逻辑树分析法分析问题在哪里,存在嘚原因我们能做的事情和应该做的事情。

最后是运用麦肯锡新创公司分析法分析各方面的因素,抓住主要源头解决问题

如何收集信息并进行高效沟通

首先是通过记笔记简单的方法解决复杂问题,把对自己解决问题有用的信息记录下来并进行分析,框架性思考以及加笁和整理最后为己所用。

另外还可以通过客户访谈,收集自己想要的信息在对客户进行访谈的时候也要特别注意一些技巧。

还有提箌的“30秒电梯法则”是非常有用及有效简单的方法解决复杂问题,特别强调凡是都要直奔主题和结果表达重点信息,忽略次要信息茬现代社会人中,这点能力是必备的

当我们面对各种问题的时候,常常把一时的想法作为解决问题的最终策略可是这一时的想法有可能只是凭着自己的经验和直觉得出来的,并不是非常可靠甚至无法真正解决问题,还有可能让我们陷入混乱当中所以提升逻辑思维能仂非常重要。

提高逻辑思维能力麦肯锡极简工作法提出了一个简单实用的的办法::A4纸笔记法

A4纸笔记法具体做法是这样的:拿出一张A4纸横放在桌面上,在纸上面写下一个主题然后根据这个主题写上4到6行的观点,每行大概20个字到30字就可以在写标题及正文时,只要是想到的倳都可以先写下来这样不会让你因为不知道写什么而迟迟不敢下手。

首先进行初始假设对问题进行定义,创造问题然后不断验证问題,找出真正存在的问题在解决多个问题的时候要确定问题的主次,重要的事情放在第一位再去寻找解决问题的资源。

解决问题的“七步法”:①描述问题;②分解问题;③去除非关键性问题;④整理信息;⑤分析和论证;⑥提出建议;⑦表达方案

优秀的人不会埋头苦干,懂得用智慧解决问题的人才更有机会走向成功

}

每一个机器学习问题都始于数据比如一组邮件、帖子或是推文。文本信息的常见来源包括:

问题解决(客户请求、技术支持、聊天记录)

“社交媒体中的灾难”数据集

貢献者们查看了超过 10000 条具有类似“着火”、“隔离”、“混乱”等搜索关键词的推文然后标记这个推文是否和灾难事件有关(与之相反嘚是一些玩笑、电影点评或是一些非灾难性的事件)。

我们的任务是分辨出哪些推文是真正和灾难事件相关的而不是一些类似电影描述嘚不相关话题。为什么呢一个潜在的应用是针对突发事件对执法人员进行专门的提醒,而不会被其他无关信息比如 Adam Sandler 新上映的电影所干擾。这项任务中一个特别的挑战是这两种情况在搜索推文的时候都用到了相同的检索词所以我们只能通过细微的差别去区分他们。

在下媔的文章中我们将把与灾难事件相关的推文称为“灾难”,将其他推文称为“不相关的”

我们已经标注过数据,所以知道推文是如何汾类的比起优化一个复杂的无监督学习方法,寻找和标记足够多的数据来训练模型会更加快捷、简单和廉价

数据科学家的一个必备技能是知道自己的下一步操作是处理模型还是数据。有一个好的经验法则是先观察数据然后进行数据清洗一个干净的数据集能使模型学习箌有意义的特征而不会被一些不相关的噪声影响。

可以借鉴下方的列表来进行数据清洗:

去除一切不相关的字符比如任何非字母数字的芓符

标记你的文本,将他们拆分为独立的单词

去除不相关的词语比如 @这类提醒或是 url 链接

将所有字母转换成小写,这样“hello”“Hello”,“HELLO”僦会被当做同样的单词处理

将拼错的单词或是多种拼法的单词与某个特定的表达绑定(比如:“cool”/“kewl”/“cooool”)

考虑词形还原(比如将“am”,“are”,“is”都看做“be”)

完成这些步骤并检查完其他错误后我们就可以使用这些干净的、标记过的数据进行模型训练了!

三、找到一种好嘚数据表达方式

机器学习模型通常以数值作为输入。这里的数据集是句子列表为了让模型可以从数据中学到句子的特征模式,首先要找箌一种方法来把它转换成模型能理解的形式即数字列表。

通常为计算机解释文本简单的方法解决复杂问题是将每一个字符都编为一个独竝的数字(例如 ASCII 码)如果使用这种简单的表达来做分类器,需要我们的数据从头开始学习词语的结构这对大多数数据集来说是很难实現的。所以我们需要一种更上层简单的方法解决复杂问题

例如,我们可以为数据集中的所有单词制作一张词表然后将每个单词和一个唯一的索引关联。每个句子都是由一串数字组成这串数字是词表中的独立单词对应的个数。通过列表中的索引我们可以统计出句子中某个单词出现的次数。这种方法叫做 词袋模型它完全忽略了句子中单词的顺序。如下图所示:

用词袋模型表示句子句子在左边,模型表达在右边向量中的每一个索引代表了一个特定的单词。

在“社交媒体中的灾难”样本词表中大概会有 20000 个单词这意味着每句句子都会鼡一个长度为 20000 的向量来表示。向量的 大部分会被 0 填充因为每句话只包含了词表中很小的一个子集。

为了看出嵌入的工作是否真正抓住了囷问题相关的信息(比如推文是否与灾难相关)有一个好方法是将它们可视化,然后观察结果是否有很好的分布考虑到词表通常很大,而且用 20000 维的数据做可视化是基本不可能的所以我们使用了 PCA 这种技术将数据降到二维。绘制如下:

词袋嵌入模型的可视化结果

两个分类看起来没有很好的分离这可能是我们选择的嵌入方法的特征或是单纯因为维度的减少引起的。为了了解词袋模型的特征是否会起一些作鼡我们可以试着基于它训练一个分类器。

当初次接触一个问题通常来说最好简单的方法解决复杂问题是先挑选一个能解决问题的最简單的工具。当提到数据分类时一般最受欢迎的是通用性和可解释性兼具的逻辑回归算法。这种算法很容易训练而且结果也是可解释的伱可以很轻松地从模型中提取出最重要的一些系数。

我们将数据分为两个集合训练集用于匹配模型,测试集用于观察应用在未知数据上嘚效果训练后我们得到了 /hundredblocks/concrete_NLP_tutorial

让分类器快速得到句子嵌入简单的方法解决复杂问题,是先将句中所有词汇Word2Vec得分的平均化这与此前词袋模型嘚做法类似,但这里我们在保留语义信息的同时只丢弃句法

利用前面的可视化技术对新模型绘图,结果如下:

Word2Vc嵌入模型的可视化结果

在這里两组颜色的分离程度更大一些,这就意味着Word2Vec能够帮助分类器更好地分离这两种类别再一次使用Logistic回归,得到77.7%的准确率是我们迄紟最好的结果!

复杂性/可解释性权衡取舍

与先前的模型不同,新模型无法将每个单词都表示成一维向量因此很难看出哪些词汇与我们的汾类结果相关度最高。尽管我们仍可使用Logistic回归的系数但它们仅与嵌入的300个维度相关,而与词汇索引值并不相关

模型准确率确实提高了,但完全做不了可解释性分析就有点得不偿失了不过,对于更复杂的模型我们可以利用LIME这样的“黑盒解释器”来稍微解释一下分类器具体是如何工作的。

LIME是Github上的一个开源软件包它允许用户通过观察输入的扰动(比如在我们的例子中,从句中移除单词)来分析一个特定汾类器的预测结果是如何变化的

从下图来看它对我们数据集中几个句子的解释:

正确分类的灾难性词汇被归类为“相关”

这个词对分类嘚影响似乎不太明显

不过,我们没有时间去逐一探索数据集中的数千个样本我们要做的是在代表性的测试样本上运行LIME,以此来分析哪些詞汇对于分类预测的影响更大这样,我们就可以像前面一样获取到单词的重要性分数以验证模型的预测结果。

模型能够提取高度相关嘚词这意味着它做出了可解释的决定。这些词汇的相关度是最高的因此我们更愿意在实际生产中部署这样的模型。

八、使用端到端的方式训练语法特征

我们已经介绍过如何用快速有效的办法来生成紧凑的句子嵌入然而,通过省略词汇的顺序我们也放弃了语句的所有呴法信息。如果简单简单的方法解决复杂问题给不出令人满意的结果那我们就用更为复杂的模型:将整个句子作为输入并预测标签,同時无需建立中间表示一种常见的做法是把句子视为词向量的序列,如使用Word2Vec或是GloVe、CoVe等更先进简单的方法解决复杂问题。接下来我们详细討论

高效的端到端的训练体系结构(源)

用于句子分类的卷积神经网络(https://arxiv.org/abs/)训练速度很快。它作为一种入门级的深度学习架构能够很恏地解决分类问题。尽管CNN声名主要源自它在图像处理方面的出色能力但在文本相关任务上,它所提供的结果也相当优异且相比多数复雜的NLP方法(如LSTM、Encoder/Decoder架构等),CNN训练速度也更快它能够保留单词的顺序,很好地学习单词的序列特征以及其他有用信息相对于先前的模型,它可以区分出“Alex

相比先前简单的方法解决复杂问题该模型的训练不需更多的工作,但效果却好得多准确率高达79.5%!与前面的步骤一樣,下一步也要继续探索并可视化该模型的预测结果以验证它是否为最佳模型。做到这一步你应该能自己完成这里的操作。

简单回顾┅下我们在各个步骤中所用简单的方法解决复杂问题是这样的:

从一个简单的模型快速开始

理解模型分类中的错误样本

使用这些知识来決定下一步的部署。

上述八大步骤所用的模型是我们处理短文本时的几个特定实例但其背后的解决方法已经广泛被用在各类NLP问题的实际處理上。

持续关注互联网、区块链、人工智能领域

邀你加入{ IT派AI机器学习群 }

}

是一款简单高效的协作工具其願景是用简化的方式解决复杂的协作问题。

使用邮箱即可注册Teambition登录后会有一个引导界面。Microsoft Office软件有一个“回形针助手”会引导你使用Office。這一设计后来被很多软件所借鉴Teambition也不例外,它的引导助手使用的是Teambition创始人和CEO 的形象很有意思。

Teambition提供了任务板、动态墙、日程、文件库、回顾等板块其中,任务版以分组的形式展现了所有任务一目了然。任务分组一般用于定义工作流程从左往右,体现了一个任务的苼命周期当然,也可以根据岗位或职能进行任务分组

Teambition以卡片的形式呈现每个任务。实体卡片墙一般使用不同底色的便利贴来区分不同類型的任务Teambition借鉴了这一设计,使用了色边来区分也很醒目,同时也符合Teambition以灰阶为主的配色风格(之所以使用灰阶为主的色调是为了確保用户长时间查看也会觉得很舒服)。红色、黄色、蓝色分别对应优先级的非常紧急、紧急、普通,以及截止时间的已过期、今明两忝、其他任务可以分为子任务,子任务也可以转换为独立任务任务的状态有未完成、进行中、已完成三种。点击任务详情处的完成状態可以进行切换对于最常用的完成任务,还可以直接在任务名称前的方框中打勾十分方便。不过有一个设计上不太一致的地方就是呮有任务的执行者才能打勾完成任务,但是其他人却可以在任务详情处选择任务状态为已完成然后任务就会被自动打勾,绕过了限制任务完成3天后自动隐藏,帮助用户将注意力集中在当前用户上同时免去了手动归档的麻烦。

动态墙里面包含了文档比较适合用来做知識沉淀。有些遗憾的是只有文档的创建者可以编辑其实知识沉淀的内容,往往有协同编辑的需求

文件库里存放了上传的文件。可以直接在文件库上传不大于20M的文件也可以在创建任务和添加讨论的时候上传。如果有新版本可以上传新版本文件,替换掉旧版本文件的層级只有一级,这样用户可以快速高效地找到文件有过在U盘或者网盘的层层目录下苦寻某个文件的经历的用户,应该能体会这一设计的良苦用心不过文件上传的时候只能默默等待,在网速慢的时候会感觉很无聊如果在上传的时候点击网页的其他地方,上传框会消失這时如果马上再次上传的话,会提示文件已经存在无法上传。稍后再次上传文件会从头开始上传……

日程以时间为序组织任务,方便鼡户安排工作也避免用户错过重要的事件。

回顾以时间为序列出了每个用户的动态,还可以按用户进行筛选只查看指定的一个或多個用户的动态。

Teambition支持键盘快捷键为键盘党提供简单、便利的操作。另一方面鼠标流也会爱上Teambition的拖拽功能。在Teambition中大量操作都可以通过拖拽完成,例如分配执行者、相关人员改变任务阶段,对任务进行排序都可以通过拖拽完成,十分直观、方便

通知中心同一分享、任务聚合成一条,精简信息

Teambition的Web界面是不需要刷新的, 所有的信息都会实时自动更新

除了Web版之外,Teambition还有移动端方便用户在外出时延续協作。此外可以通过邮件回复直接参与Teambition上的讨论。

93%的Teambition用户会推荐给身边的人如果你的团队正在寻找一款简单高效的协作工具,Teambition值得一試你也可以浏览,了解Teambiton团队是如何打造出这款产品的


}

我要回帖

更多关于 简单的方法解决复杂问题 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信