segunda-feira, 22 de julho de 2013

Qualidade: o que era "Inspeção" virou "Gestão Estratégica"


Este artigo simples de um site que frequento veio reforçar o principio do que procuro passar em sala de aula para meus alunos, que a qualidade é importante mas planejar a qualidade é mais importante ainda. Desta forma a estratégia para se atingir a qualidade é mais importante que corrigir problemas.

A evolução do processo de gestão da qualidade é fantástico e levou a industria a outro patamar.



Atualmente, a qualidade é ingrediente básico para qualquer empresa e/ou profissional que queiram sobreviver e crescer. Numa mesa de negociação, com um cliente, já não se discute qualidade. Discutem-se outras coisas, porém, se não tiver qualidade é provável que nem se chegue a uma mesa de negociação. Mas nem sempre foi assim. Conceitualmente, a qualidade é conhecida há milênios. Em sua forma original, era relativa e voltada para a inspeção, sendo considerada responsabilidade exclusiva dos departamentos de produção e operações. Hoje, porém, a qualidade engloba funções diversas como projeto, compras, marketing, entre outras, e recebe a atenção da alta direção da empresa. As diferentes abordagens da qualidade foram surgindo gradativamente através de uma evolução regular, não tendo havido inovações marcantes. Tais abordagens são o resultado de descobertas que remontam a mais de 100 anos. Nos Estados Unidos, essas abordagens foram concatenadas em quatro “eras da qualidade”, a saber: inspeção, controle estatístico da qualidade, garantia da qualidade e gestão estratégica da qualidade.


Nos séculos XVIII e XIX quase tudo era fabricado por artesãos, por artífices habilidosos ou por outros trabalhadores experientes que eram supervisionados pelos mestres do ofício. Os produtos eram produzidos em pequenas quantidades e as peças eram ajustadas umas às outras manualmente, sendo inspecionadas de maneira informal. Com o surgimento da produção em massa, e da necessidade de se produzir peças intercambiáveis, a inspeção formal passou a ser necessária. Porém, devido ao aumento dos volumes de produção, as peças não mais podiam ser encaixadas umas às outras manualmente, pois demandaria aumento da mão-de-obra qualificada, tornando o processo oneroso e demorado. Para superar essa barreira, criou-se, no início do século XIX, um sistema racional de medidas, gabaritos e acessórios. Tais dispositivos garantiriam o correto posicionamento das peças enquanto estavam sendo trabalhadas, proporcionando exatidão às operações. No entanto, por falhas operacionais, imperfeições da matéria-prima ou por ferramentas gastas, as peças ainda poderiam não se ajustar umas às outras. Daí a necessidade de uma inspeção exata durante o processo de fabricação. Em 1819, já existia um sistema sofisticado de medidas que conferira uma maior respeitabilidade à inspeção. No início do século XX, Frederick Taylor deu mais legitimidade à inspeção classificando-a como uma tarefa específica a ser atribuída a um dos chefes funcionais (encarregados) da fábrica. Tal situação perdurou por muitos anos, ficando assim definida a primeira era da qualidade: a Era da Inspeção.

Em 1931, Walter A. Shewhart, através da obra “Economic Control of Quality of Manufactured Product”, criou poderosas técnicas de acompanhamento e avaliação da produção diária e sugeriu diversas formas de se melhorar a qualidade visando uma maior padronização e uniformidade com o menor volume possível de inspeção: estava surgindo a disciplina conhecida atualmente como controle estatístico da qualidade. Observando que era improvável que duas peças fossem fabricadas precisamente iguais, admitiu-se a variabilidade como um fato concreto na indústria, surgindo a questão de como distinguir as variações aceitáveis daquelas que indicassem problemas. O conceito de controle estatístico da qualidade considera um fenômeno sob controle quando, utilizando-se de experiência passada, possa-se prever, dentro de certos limites, como tal fenômeno irá variar no futuro. Para a determinação de tais limites foram formuladas técnicas estatísticas simples e métodos gráficos de representação de valores de produção para avaliar se eles ficavam dentro da faixa aceitável: o gráfico de controle de processo. Na plotagem desse gráfico são separadas as causas anormais (as que podem ser atribuídas a um determinado fator) daquelas inerentes a um processo de produção, permitindo-se fazer a distinção entre problemas reais e problemas devidos simplesmente ao acaso. Considere-se ainda que as amostras dos produtos são coletadas durante a produção e não após o término da montagem dos produtos. Como segundo elemento crítico para o crescimento do controle estatístico, a prática da amostragem foi concebida por Harold Dodge e Harry Roming. As técnicas de amostragem partem do princípio de que uma inspeção de 100% é ineficiente para se separar os bons dos maus produtos. A sugestão é verificar uma quantidade limitada de produtos de um lote de produção e decidir, com base nessa verificação, se o lote inteiro é aceitável, ou não. Para evitar que lotes com inúmeros produtos defeituosos fossem aceitos (risco do consumidor) ou que fossem rejeitados lotes com qualidade perfeitamente aceitável (risco do produtor), Dodge e Roming formularam planos de amostragem que asseguravam que, para um determinado nível de defeitos, a probabilidade de se aceitar um lote insatisfatório ficaria limitada a um certo percentual. Daí, a criação das tabelas de amostragem, as quais determinam, para cada lote integral considerado, o tamanho da amostra a ser coletada bem como a quantidade de produtos defeituosos que definirão a aceitação ou rejeição do lote. Em 1939, com o advento da Segunda Guerra Mundial e a necessidade de se produzir armas em grande escala, os conceitos do controle estatístico da qualidade passaram a ter um enfoque maior. No final dos anos 40, o controle de qualidade já estava estabelecido como disciplina reconhecida, constituindo-se basicamente de métodos estatísticos e tendo seu impacto confinado em grande parte às fábricas, marcando, portanto, a Era do Controle Estatístico da qualidade.

Nos anos 50 e início da década de 60 foram publicadas diversas obras que introduziram a grande era da qualidade que veio a seguir: a Era da Garantia da Qualidade. Nesta terceira era, a qualidade passou a ter um significado mais amplo para o gerenciamento. Apesar de a prevenção de problemas continuar sendo seu objetivo fundamental, quatro elementos distintos confirmaram essa expansão: quantificação dos custos da qualidade, controle total da qualidade, engenharia da confiabilidade e zero defeito. Em 1951, Joseph Juran observou que os “custos” para se atingir um determinado nível da qualidade poderiam ser classificados em custos evitáveis e custos inevitáveis. Os primeiros, referiam-se aos defeitos e falhas no processo; os segundos, seriam os custos associados à prevenção: inspeção, amostragem, classificação e outras atividades do controle de qualidade. Em 1956, Armand Feigenbaum deu prosseguimento a esse princípio propondo o “controle total da qualidade”, tendo como primeiro princípio o de que a qualidade seria de responsabilidade de todos os envolvidos no processo, desde o projeto até a chegada do produto nas mãos de um consumidor que ficasse satisfeito. Nessa mesma época surgia a “engenharia da confiabilidade”, cujo objetivo era garantir um desempenho aceitável do produto ao longo do tempo, em condições pré-estabelecidas. Esses esforços foram estimulados pela queda da confiabilidade dos componentes e sistemas militares e pelo crescimento das indústrias aeroespacial e eletrônica nos Estados Unidos. Foram criados novos métodos formais de previsão do desempenho e técnicas de redução dos índices de falhas enquanto os produtos ainda estavam no estágio de projeto. Assim como o controle total da qualidade, a engenharia da confiabilidade objetivava, antes de tudo, prevenir a ocorrência de defeitos. Em 1961-62, na Martin Company, uma fábrica de mísseis nos Estados Unidos, surgia a última inovação significativa da era da garantia da qualidade: o “zero defeito”, concentrando-se nas expectativas de gerenciamento e nas relações humanas. Do lado da gerência, foi enfatizada a exigência da perfeição. Do lado das relações humanas, concentraram-se forças na conscientização e motivação dos empregados sendo proposto o desenvolvimento de um programa que promovesse nos funcionários uma vontade constante e consciente de fazer o trabalho certo da primeira vez. O nome desse programa foi “zero defeito”. Apesar desse programa enfocar a filosofia, a motivação e a conscientização, um grande passo foi dado: a detecção dos defeitos em sua origem e o esboço das medidas corretivas desenvolvido pelo departamento de pequenos motores da General Eletric. A contribuição da Martin Company residiu basicamente na articulação da filosofia de que o único padrão de qualidade aceitável era zero defeito, o que era tido como uma grande conquista, visto que o pensamento sobre qualidade na época considerava os níveis de qualidade aceitáveis – idéia associada às técnicas de amostragem de que um nível de defeitos diferente de zero bastava. “Zero defeito” foi o último evento marcante na era da garantia da qualidade e, ao lado da engenharia da confiabilidade, dos custos da qualidade e do controle total da qualidade, ajudou a expandir a visão sobre a qualidade.


Apesar de todas essas mudanças, o principal objetivo da área de qualidade permanecia sendo a prevenção de defeitos, o que contribuía para que a qualidade fosse vista de forma negativa – poderia arruinar a empresa, se deixada de lado – e não como uma potencial base de concorrência. A mudança desta visão teve início nas décadas de 70 e 80 com o reconhecimento e incorporação de aspectos estratégicos da qualidade. 



Era da Gestão Estratégica caracterizou-se pelo grande interesse de presidentes e diretores executivos das empresas em associar a qualidade à lucratividade do negócio, definindo-a conforme o ponto de vista do cliente, incluindo-a no processo de planejamento estratégico e considerando-a uma arma agressiva de concorrência. Essa nova visão da qualidade foi influenciada por diversas forças externas, principalmente pelas incursões dos fabricantes japoneses no mercado americano, uma vez que o Japão produzia com qualidade e confiabilidade superiores, ameaçando as posições das empresas americanas. A essência da abordagem estratégica reside no fato de que os clientes e usuários é que têm a última palavra quanto a um produto atender às suas necessidades e expectativas. Pesquisas publicadas pela primeira vez na década de 70 mostraram que as empresas que produziam com uma qualidade superior tinham um maior retorno sobre o investimento, além de aumentarem a sua participação no mercado. Do lado da produção, os gerentes descobriram a relação entre qualidade e produtividade, constatando que um processo de fabricação sem defeitos seria mais eficiente do que outro constantemente interrompido para retrabalhos e reparos. Diante, dessas evidências, chegou-se à conclusão de que realmente a qualidade era uma poderosa arma de concorrência, o que impulsionou os gerentes mais dinâmicos a buscarem não apenas uma equiparação, mas uma superação em relação aos níveis de qualidade dos concorrentes. Desejava-se, portanto, a melhoria contínua da qualidade. A abordagem estratégica da qualidade é uma extensão dos movimentos que a antecederam, podendo nela serem vistos aspectos tanto da garantia da qualidade quanto do controle estatístico da qualidade, porém, dentro de uma abordagem mais ampla ligada à lucratividade, aos objetivos empresariais estratégicos, à concorrência, ao ponto de vista do consumidor e, sobretudo, à melhoria contínua.


* Oséas Felício de Lima é Bacharel em Administração de Empresas, com Pós-Graduação em Gestão Empresarial (MBA) pela Fundação Getúlio Vargas / FGV, Instituição na qual também possui o Curso de Docência para o Exercício do Magistério Superior.

fonte: http://www.administradores.com.br/artigos/marketing/qualidade-o-que-era-inspecao-virou-gestao-estrategica/33259/