1 / 18

DOIS TIPOS DE FALHAS MAU FUNCIONAMENTO NÃO-INTENCIONAL E ALEATÓRIO DO SISTEMA

DOIS TIPOS DE FALHAS MAU FUNCIONAMENTO NÃO-INTENCIONAL E ALEATÓRIO DO SISTEMA MAU FUNCIONAMENTO INTENCIONAL , CAUSADO POR OPERADORES, USUÁRIOS, HACKERS ETC. EM “ CONFIABILIDADE ” SERÁ VISTO O PRIMEIRO CASO ACIMA. EM “ SEGURANÇA ” SERÁ VISTO O SEGUNDO. TEORIA DA CONFIABILIDADE

lavender
Télécharger la présentation

DOIS TIPOS DE FALHAS MAU FUNCIONAMENTO NÃO-INTENCIONAL E ALEATÓRIO DO SISTEMA

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. DOIS TIPOS DE FALHAS • MAU FUNCIONAMENTO NÃO-INTENCIONAL E ALEATÓRIO DO SISTEMA • MAU FUNCIONAMENTO INTENCIONAL, CAUSADO POR OPERADORES, USUÁRIOS, HACKERS ETC. • EM “CONFIABILIDADE” SERÁ VISTO O PRIMEIRO CASO ACIMA. • EM “SEGURANÇA” SERÁ VISTO O SEGUNDO. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  2. TEORIA DA CONFIABILIDADE • QUALQUER MÁQUINA OU ORGANISMO É INCONFIÁVEL, POIS PODE FALHAR SEM AVISO PRÉVIO. ALGUNS FALHAM MENOS, OUTROS MAIS, MAS TODOS FALHAM. • PARA SABER QUAL A CHANCE DE UM SISTEMA FALHAR, EXISTE A TEORIA DA CONFIABILIDADE. • UM SISTEMA É COMPOSTO DE VÁRIAS PEÇAS, PODENDO CHEGAR A MILHARES (AUTOMÓVEL) OU MILHÕES (UMA NAVE ESPACIAL). SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  3. SUPONDO QUE O SISTEMA TENHA UMA VIDA ÚTIL DE 1.000 HORAS, PODEMOS DETERMINAR EXPERIMENTALMENTE QUANTO % DE CADA PEÇA FALHA, FUNCIONANDO ININTERRUPTAMENTE DURANTE 1.000 HORAS. • SUPONHAMOS ENTÃO QUE A CHANCE DE UMA PEÇA TIPO A FALHAR SEJA 5%. ESSA SERÁ SUA INCONFIABILIDADE. SUA CONFIABILIDADE SERÁ POIS DE 95%. SUPONHAMOS QUE EXISTA UMA OUTRA PEÇA TIPO B, CUJA CONFIABILIDADE TAMBÉM SEJA DE 95%. • UM EQUIPAMENTO COMPOSTO DESSAS DUAS PEÇAS A e B EM SÉRIE, TERÁ UMA CONFIABILIDADE DADA PELA ÁRVORE DE PROBABILIDADES SEGUINTE: SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  4. PARA O SISTEMA, COMO UM TODO, FALHAR, BASTA QUE QUALQUER UMA DAS PEÇAS (A OU B) FALHEM. NESSAS CONDIÇÕES, A ÁRVORE MOSTRA QUE A CHANCE DO SISTEMA NÃO FALHAR É DE 90.25%. ASSIM, COM DUAS PEÇAS DE CONFIABILIDADE 95%, A CONFIABILIDADE DO SISTEMA É DE 90.25%. ESTE RESULTADO É IMPORTANTE: QUANTO MAIS SIMPLES O SISTEMA, MAIOR SERÁ SUA CONFIABILIDADE. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  5. SE A CONFIABILIDADE DE UM SISTEMA FOR BAIXA, HÁ TRÊS MANEIRAS DE AUMENTÁ-LA: • REDUZIR O SEU NÚMERO DE COMPONENTES • USAR COMPONENTES O MAIS CONFIÁVEIS POSSIVEL • USAR REDUNDÂNCIA, DUPLICANDO EM PARALELO O SISTEMA (COMO FEITO NOS AVIÕES, QUE TÊM TRÊS COMPUTADORES DE CONTROLE, FUNCIONANDO SEMPRE EM PARALELO). • PARA VER COMO A REDUNDÂNCIA AUMENTA A CONFIABILIDADE, CONSTRUIMOS OUTRA ÁRVORE DE PROBABILIDADES, DUPLICANDO O SISTEMA ACIMA, CADA UM COM UMA INCONFIABILIDADE DE 9.75%. • NESTE CASO, O SISTEMA, COMO UM TODO, FALHARÁ SOMENTE SE AMBOS OS SUBSISTEMAS FALHAREM AO MESMO TEMPO. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  6. COMO NOTAMOS, O SISTEMA COM REDUNDÂNCIA TEM SUA CONFIABILIDADE AUMENTADA DE 90.25% PARA 99.05% (100% - 0.95%) NATURALMENTE, A CONFIABILIDADE NUNCA CHEGARÁ A 100%, O QUE MOSTRA QUE NENHUM SISTEMA É TOTALMENTE CONFIÁVEL. O CORPO HUMANO, PARA AUMENTAR SUA CONFIABILIDADE, TAMBÉM TEM REDUNDÂNCIAS: OUVIDOS, OLHOS, RINS, PULMÕES ETC. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  7. FALHAS MAIS COMUNS NOS SISTEMAS DE INFORMAÇÕES • Incêndio, inundação e desastre • Sabotagem e vandalismo • Falhas de hardware, de software e de telecomunicações • Interrupção de serviços de eletricidade, telefonia etc. • Sobrecarga do sistema • Roubo e furto • Acesso não controlado ao sistema • Introdução de dados incorretos • Erros internos do sistema • Falha humana • Correções mal feitas ou indevidas • Greves • SOMENTE AS FALHAS DE SOFTWARE, FORAM RESPONSÁVEIS POR PERDAS DE US$ 60 BILHÕES EM 2002 NOS EUA. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  8. O SELO DE QUALIDADE DA UNDERWRITERS LABORATORIES • UMA FORMA DE GARANTIR UMA BOA CONFIABILIDADE DE EQUIPAMENTOS ELETRO-ELETRÔNICOS É ATRAVÉS DA AUTENTICAÇÃO FEITA PELA UNDERWRITERS LABORATORIES. TAIS EQUIPAMENTOS SÃO IDENTIFICADOS PELA EXISTÊNCIA DO SELO ABAIXO EM SUA PARTE TRASEIRA. O PRIMEIRO MUNDO NÃO COSTUMA IMPORTAR EQUIPAMENTOS SEM ESSE SELO. TAMBÉM NÃO CONHECEMOS PRODUTOS DO TERCEIRO MUNDO COM ESSE SELO. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  9. ALGUNS CASOS DE FALHAS EM HARDWARE, • QUE PRODUZIRAM GRANDES PERDAS. • INCÊNDIO EM TÓQUIO (1994), DERRUBANDO AS COMUNICAÇÕES. • CURTO-CIRCUITO EM CONNECTICUT (1987), QUANDO UM ESQUILO, ROENDO OS CABOS QUE ALIMENTAVAM UM COMPUTADOR CENTRAL, DERRUBOU O SERVIÇO DE COTAÇÃO AUTOMÁTICA DOS CORRETORES DE SEGURO. • EM 1980, NEBRASKA, O COMANDO AÉREO ESTRATÉGICO FOI ENTROU EM PRONTIDÃO MÁXIMA, POIS MISSEIS RUSSOS ESTAVAM SE DIRIGINDO PARA OS EUA. VERIFICOU-SE DEPOIS QUE APENAS UM CHIP DO SISTEMA ESTAVA COM DEFEITO, E NÃO HAVIA QUALQUER ATAQUE. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  10. 4. NOS TESTES DO CARRO AUDI-5000, HOUVE ACELERAÇÕES SÚBITAS, CAUSANDO A MORTE DE ALGUNS PILOTOS, POR FALHA DO CHIP ESTABILIZADOR. • 5. CABOS PARTIDOS EM UMA UNIDADE DE MEMÓRIA CAUSARAM INÚMEROS PROBLEMAS NO CONTROLE DE TRÁFEGO AÉREO DE LOS ANGELES, FELIZMENTE SEM ACIDENTES FATAIS. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  11. 6. DESDE 1982, MAIS DE 22 PILOTOS DO SOFISTICADO HELICÓPTERO “TUBARÃO NEGRO” MORRERAM EM ACIDENTES, PORQUE OS APARELHOS RODOPIAVAM E CAIAM NO CHÃO, DEVIDO A RUIDOS A INTERFERÊNCIAS DE RÁDIO EM SEUS CIRCUITOS. O HELICÓPTERO ERA DO TIPO “FLY-BY-WIRE”. • 7. O PENTIUM-90 DA INTEL (1994) USADO EM MILHÕES DE PCs, FAZIA CONTAS ERRADAS, SÓ DESCOBERTO APÓS MAIS DE UM ANO DE USO. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  12. CONFIABILIDADE DO SOFTWARE • ESTAS SÃO AS FALHAS MAIS COMUNS (BUGS). • A TEORIA DA CONFIABILIDADE NÃO SE APLICA DIRETAMENTE A ESTES CASOS, POIS O SOFTWARE NÃO É UM SISTEMA FISICO, MAS SIM UM SISTEMA LÓGICO-MATEMÁTICO. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  13. PODE HAVER SOFTWARE COM CONFIABILIDADE 100%, COMO O PROGRAMA A SEGUIR, COM 7 LINHAS DE PROGRAMAÇÃO: Rotina de verificação Se a pessoa não tiver menos que 16 anos, então Emitir o titulo de eleitor Caso contrário Não emitir titulo de eleitor Informar o motivo da recusa Fim da rotina SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  14. NO ENTANTO, PARA OS SOFTWARES COMERCIALIZADOS, O NÚMERO DE LINHAS PODE PASSAR DE UM MILHÃO, COMO NO MS-WORD. • NESSES CASOS, O NÚMERO DE IFs (SE.... ENTÃO.... CASO CONTRÁRIO....) PODE PASSAR DE MILHARES. SUPONHAMOS QUE O MS-WORD TENHA 300.000 IFs. ISSO SIGNIFICA QUE, PARA TESTAR TODO O PROGRAMA, SÃO NECESSÁRIOS (2 ELEVADO À POTÊNCIA 300.000) TESTES, PARA VERIFICAR SE EM ALGUM CASO NÃO EXISTE UM BUG. O NÚMERO DE TESTES RESULTA EM UM NÚMERO COM 90.309 CASAS DECIMAIS ANTES DA VIRGULA. ASSIM, É IMPOSSIVEL TESTAR TODO O PROGRAMA EM UM TEMPO RAZOÁVEL. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  15. CASOS DE FALHAS (BUGS) NO SOFTWARE • UM BUG EM UM PROGRAMA USADO NUM APARELHO DE TRATAMENTO DE CÂNCER, O THERAC-25, MATOU ALGUMAS PESSOAS EM 1986, NO TEXAS. • CAÇAS MILITARES MERGULHAM NO SOLO. • O FOGUETE ATLAS-AEGENA TEVE QUE SER EXPLODIDO POR TER FICADO MALUCO. • APARELHOS HOSPITALARES QUE ADMINISTRAVAM INSULINA OU MICRO-ONDAS MATARAM VÁRIOS PACIENTES POR BUGS EM SEUS PROGRAMAS. • BURACO DE OZONA “DESAPARECE” DA ANTÁRTIDA. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  16. 6. AEGIS, UMA MÁQUINA DE GUERRA AUTOMÁTICA, DERRUBA UM AIRBUS IRANIANO, MATANDO 290 CIVIS, POR TER PASSADO PERTO DO NAVIO DE GUERRA EQUIPADO COM ESSE SISTEMA. O SOFTWARE SE ENGANOU, PENSANDO QUE O AVIÃO FOSSE ATACAR O NAVIO. • 7. O AEROPORTO DE LONDRES ENTROU EM PÂNICO, POR FALHAS NOS SISTEMAS CONTROLADORES DE VÔO. • 8. BANCO DE NOVA YORK PERDE MILHÕES DE DÓLARES COM SEU SISTEMA DE TRANSAÇÕES AUTOMÁTICAS COM O BANCO DA RESERVA FEDERAL. • 9. SISTEMAS ESPECIALISTAS MATAM UM PACIENTE, AO ADMINISTRAR DOSES ERRADAS DE ANALGÉSICO. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  17. FALHAS NO PEOPEWARE (PESSOAS QUE INTERAGEM COM COMPUTADORES) • SÃO OS MAIS CONHECIDOS, POIS TODOS NÓS OS COMETEMOS. • AS PRINCIPAIS CAUSAS DA INCONFIABILIDADE DAS PESSOAS SÃO: • FADIGA HUMANA • PROBLEMAS PESSOAIS • DESAJUSTES COM A EMPRESA • INTERESSES PESSOAIS • INCOMPETÊNCIA PARA USAR O SISTEMA (FALTA DE TREINAMENTO) SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

  18. UM DOS CASOS MAIS FAMOSOS DE FALHA HUMANA OCORREU COM JUAN PABLO D’ÁVILA, UM CHILENO EMPREGADO DE UMA EMPRESA ESTATAL, QUE, POR ENGANO, INSTRUIU O COMPUTADOR PARA COMPRAR NO MERCADO DE FUTUROS, QUANDO DEVERIA VENDER, E VICE-VERSA, CAUSANDO UM PREJUIZO QUE CHEGOU A 0.5% DO PIB CHILENO (US$ 207 MILHÕES DE DÓLARES), EM 1994. SISTEMAS DE INFORMAÇÕES PARA EXECUTIVOS

More Related