Quem sou eu

Minha foto
Joanópolis, SP, Brazil
Bem-vindo ao Instituto do Ar . O Instituto do Ar é um espaço dedicado ao fascinante universo da aviação. Aqui você encontrará análises, reflexões e conteúdos sobre voo, segurança, tecnologia e a evolução do transporte aéreo. Os textos contam com apoio de Inteligência Artificial na organização do conteúdo, mas os temas, a curadoria e as revisões são feitos por mim, com base na experiência profissional e pesquisa contínua no setor. Se você valoriza este trabalho e deseja apoiar o crescimento e a profissionalização do blog, considere fazer uma contribuição voluntária. Pix para apoio ao projeto: institutodoaraviacao@gmail.com Sua colaboração ajuda a manter e ampliar este espaço de conhecimento. Boa leitura e bons voos! Marcuss Silva Reis

sábado, 2 de maio de 2026

✈️ It’s Not Pilot Error: The System Was Already Broken — James Reason Explained

 


🔎 Why Aviation Accidents Are Not What You Think

When an aircraft crashes, the first reaction is almost always the same:

👉 “Pilot error.”

But according to James Reason, that explanation is not only simplistic —
it’s dangerously wrong.

Modern aviation safety is built on a powerful idea:

👉 Humans don’t cause accidents. Systems do.

🧠 The Breakthrough That Changed Aviation Forever

Before Reason, accident investigations focused on who made the mistake.

After Reason, the question became:

👉 Why did the system allow the mistake to happen?

This shift reshaped global aviation standards, influencing organizations like the NTSB and CENIPA.

🧀 The Swiss Cheese Model (The Most Important Safety Concept Ever)

Reason’s most famous contribution is the:

👉 Swiss Cheese Model

Here’s how it works:

  • Every system has multiple layers of defense
  • Each layer has weaknesses (holes)
  • When those holes align → the accident happens

✈️ In real aviation terms:

An accident is never just:

  • a wrong decision
  • a missed checklist
  • a moment of distraction

It’s a chain of aligned failures, including:

  • poor training
  • organizational pressure
  • maintenance issues
  • flawed procedures

👉 The pilot is the last link — not the root cause.

⚠️ Active Failures vs Latent Conditions

Reason divided failures into two critical types:

🔴 Active Failures

  • Occur at the operational level (pilots, ATC, mechanics)
  • Immediate impact
  • Example: incorrect configuration or decision

⚫ Latent Conditions

  • Hidden within the system
  • Can exist for years unnoticed
  • Example:
    • weak safety culture
    • inadequate training programs
    • management pressure
    • design flaws

👉 Latent conditions are where accidents are born.

⚖️ Just Culture: The Foundation of Real Safety

Reason also introduced the concept of:

👉 Just Culture

Key idea:

  • Don’t punish honest mistakes
  • Encourage reporting
  • Separate error from negligence

Why this matters:

Without trust, people hide errors.
When errors are hidden → risk grows silently.

👉 Transparency saves lives.

📊 How Reason Shaped Modern Aviation

His theories directly support:

✔️ Safety Management Systems (SMS)

  • Risk identification
  • Continuous monitoring
  • Organizational responsibility

✔️ Crew Resource Management (CRM)

  • Communication
  • Decision-making
  • Situational awareness

✔️ Modern accident investigations

  • Focus on contributing factors
  • Not blame, but prevention

📚 Essential Books by James Reason

If you want to truly understand aviation safety, start here:

  • “Human Error” (1990)
    → The foundation of modern safety theory
  • “Managing the Risks of Organizational Accidents” (1997)
    → Introduces the Swiss Cheese Model
  • “The Human Contribution” (2008)
    → Explains how humans are also a source of safety

🔥 A Hard Truth Most People Ignore

Here’s what Reason forces us to accept:

👉 The accident begins long before takeoff.

When you see:

  • repeated incidents
  • small deviations
  • normalized risk

You are not seeing isolated events.

👉 You are watching the holes align.

📢 Final Insight

Aviation safety is not about eliminating human error.

👉 It’s about building systems strong enough to absorb it.

Because when the system fails…

the accident is no longer a surprise —
it’s the final step of a process already in motion.

✍️ Author

By Marcuss Silva Reis
Commercial Pilot | Aviation Expert Witness | Aviation Professor | Optical Specialist
Founder of Instituto do Ar

✈️ James Reason e a Segurança de Voo: O Pensamento que Mudou a Prevenção de Acidentes

 “Se Você Ainda Culpa o Piloto, Não Entendeu Segurança de Voo”



A segurança de voo moderna não pode ser compreendida sem a contribuição de James Reason. Psicólogo britânico, Reason revolucionou a forma como a aviação — e outras indústrias de alto risco — enxergam o erro humano, deslocando o foco da culpa individual para a análise sistêmica.

Seu trabalho influenciou diretamente órgãos como FAA, ICAO e sistemas investigativos no padrão CENIPA e NTSB.

🧠 A grande virada: do “culpado” ao “sistema”

Antes de Reason, acidentes eram frequentemente atribuídos a:

  • “falha do piloto”
  • “erro humano”
  • “negligência individual”

Reason mostrou algo muito mais profundo:

👉 O erro humano é consequência, não causa raiz.

Ele demonstrou que profissionais competentes operam dentro de sistemas que possuem falhas latentes — e são essas falhas que, quando alinhadas, permitem que o acidente aconteça.

🧀 O Modelo do Queijo Suíço (Swiss Cheese Model)

Sua contribuição mais famosa é o modelo conhecido como:

👉 Swiss Cheese Model

Nesse modelo:

  • Cada camada de defesa (procedimentos, treinamento, manutenção, ATC, cultura organizacional) é como uma fatia de queijo
  • Cada fatia possui “furos” (falhas)
  • Quando esses furos se alinham → ocorre o acidente

📌 Interpretação prática na aviação:

  • Um erro de piloto sozinho raramente derruba uma aeronave
  • Ele precisa estar combinado com:
    • falha organizacional
    • deficiência de treinamento
    • pressão operacional
    • falhas técnicas ou de manutenção

👉 Acidentes são eventos organizacionais, não individuais.

⚠️ Tipos de falhas segundo James Reason

Reason classificou os erros em categorias fundamentais:

🔹 1. Erros ativos (Active Failures)

  • Ocorrem na linha de frente (pilotos, controladores, mecânicos)
  • Têm efeito imediato
  • Exemplo:
    • seleção incorreta de configuração
    • leitura errada de instrumento

🔹 2. Falhas latentes (Latent Conditions)

  • Estão “escondidas” no sistema
  • Podem permanecer por anos até se manifestarem
  • Exemplo:
    • treinamento inadequado
    • cultura de segurança fraca
    • manutenção deficiente
    • pressão por produtividade

👉 Essas são as mais perigosas — e as mais negligenciadas.

🧩 Cultura Justa (Just Culture)

Outro conceito essencial desenvolvido por Reason:

👉 Just Culture (Cultura Justa)

Princípios:

  • Não punir erros honestos
  • Diferenciar erro humano de negligência deliberada
  • Incentivar reporte voluntário de incidentes

Impacto direto na aviação:

  • Sistemas como ASRS (NASA)
  • Relatórios confidenciais
  • Aprendizado contínuo baseado em dados reais

👉 Sem Just Culture, os erros são escondidos — e o risco aumenta.

📊 Contribuições práticas para a aviação

As ideias de Reason fundamentaram:

✔️ CRM (Crew Resource Management)

  • Comunicação
  • Tomada de decisão
  • Consciência situacional

✔️ SMS (Safety Management System)

  • Identificação de riscos
  • Mitigação contínua
  • Cultura organizacional de segurança

✔️ Investigação moderna de acidentes

  • Foco em fatores contribuintes
  • Não culpabilização (princípio do Anexo 13 da ICAO)

📚 Principais obras de James Reason

Aqui estão seus trabalhos mais relevantes:

📖 Human Error (1990)

  • Obra fundamental
  • Introduz o modelo de falhas humanas
  • Base teórica da segurança moderna

📖 Managing the Risks of Organizational Accidents (1997)

  • Consolida o modelo do queijo suíço
  • Foca nas falhas organizacionais

📖 The Human Contribution (2008)

  • Aborda a contribuição positiva do ser humano para a segurança
  • Equilíbrio entre erro e adaptação humana

🔎 Um ponto crítico (visão técnica)

A teoria de Reason nos obriga a encarar uma realidade incômoda:

👉 O acidente já começa muito antes da decolagem.

Quando vemos:

  • incidentes repetitivos
  • pequenas falhas recorrentes
  • desvios operacionais tolerados

Estamos, na prática, vendo os “furos do queijo” se alinhando.

Isso dialoga diretamente com a teoria moderna de segurança:

  • Heinrich
  • Bird
  • ICAO SMS Framework

📢 Conclusão — O legado de James Reason

James Reason não apenas estudou erros.

Ele mudou a mentalidade da aviação:

✔️ De punição → para aprendizado
✔️ De indivíduo → para sistema
✔️ De reação → para prevenção

👉 Sua maior contribuição foi mostrar que segurança de voo não é ausência de erro —
é a capacidade do sistema de absorver o erro sem colapsar.

✍️ Assinatura

Por Marcuss Silva Reis
Piloto Comercial | Perito em Aviação | Professor de Aviação | Técnico em Óptica
Fundador do Instituto do Ar


Desligar dois interruptores de combustível no cockpit é a causa da queda do voo da Air India em Ahmedabad

 

Introdução: um detalhe técnico que mudou toda a investigação

Um novo elemento trouxe ainda mais complexidade à análise do acidente envolvendo um voo da Air India em Ahmedabad.

De acordo com relatos recentes, a possível causa do acidente estaria ligada ao desligamento dos interruptores de combustível no cockpit — uma ação que, em condições normais, é considerada altamente improvável durante o voo.

Mais intrigante ainda é o conteúdo do Cockpit Voice Recorder (CVR).


O que diz a gravação do cockpit


6

Segundo os dados divulgados:

“Um piloto perguntou ao outro por que ele havia desligado o interruptor de combustível, e o outro respondeu: ‘eu não desliguei’.”

Essa troca de diálogo levanta três questões críticas:

  1. Quem realizou a ação?
  2. Quem está questionando quem?
  3. Houve falha humana, falha técnica ou interpretação equivocada?

E há um agravante:

Não foi possível identificar com precisão qual piloto era o comandante e qual era o copiloto na conversa.

O silêncio definitivo: a limitação das investigações

Em acidentes aeronáuticos fatais, há um ponto inevitável:

Os únicos que poderiam esclarecer diretamente o ocorrido… não estão mais presentes.

Essa realidade coloca ainda mais peso sobre a análise técnica e sobre a interpretação dos dados gravados.

Segundo o International Civil Aviation Organization, por meio do Anexo 13, investigações aeronáuticas têm como objetivo:

  • Identificar fatores contribuintes
  • Prevenir novos acidentes
  • Não atribuir culpa direta

É plausível desligar os interruptores de combustível em voo?


6

Do ponto de vista operacional, essa hipótese levanta forte ceticismo.

Especialistas internacionais afirmam:

“Nenhum piloto em sã consciência desligaria os interruptores de combustível em voo.”

De fato, essa ação:

  • Não faz parte de procedimentos normais
  • Só ocorreria em situações extremamente específicas
  • Está associada a checklists críticos e altamente controlados

Ou seja, não é uma ação trivial ou acidental em condições normais.


A controvérsia: erro humano ou narrativa conveniente?

Aqui surge uma das tensões mais comuns em investigações aeronáuticas:

De um lado:

  • A hipótese de erro humano
  • Interpretação direta dos dados do CVR

De outro:

  • Questionamentos sobre possíveis falhas técnicas
  • Desconfiança pública em relação à indústria

A Associação de Pilotos da Índia já se posicionou:

“Exigimos uma investigação completa e aprofundada.”

Enquanto isso, setores mais críticos levantam a hipótese de:

“Pilotos sendo utilizados como bodes expiatórios para proteger fabricantes.”

Essa polarização não é nova na aviação.

O que ainda não sabemos

6

Apesar das informações divulgadas, pontos fundamentais permanecem em aberto:

  • Sequência exata dos eventos
  • Condição dos sistemas da aeronave
  • Contexto operacional no momento da decisão
  • Interpretação completa dos dados do CVR e FDR

Sem esses elementos, qualquer conclusão definitiva ainda seria precipitada.

Conclusão: quando a resposta levanta mais perguntas

O caso do acidente da Air India reforça uma verdade conhecida por quem vive a aviação:

Quanto mais avançada a investigação, mais complexa a realidade se revela.

A possível ação de desligamento dos interruptores de combustível, combinada com um diálogo inconclusivo no cockpit, cria um cenário onde:

  • A lógica operacional é desafiada
  • A interpretação técnica precisa ser extremamente cautelosa
  • E o julgamento apressado pode distorcer a realidade

No momento, há apenas uma certeza:

A investigação está longe de terminar — e o cenário está se tornando cada vez mais complexo.

Referências

  • International Civil Aviation Organization – Annex 13: Aircraft Accident and Incident Investigation
  • Federal Aviation Administration – Cockpit Voice Recorder Guidance
  • National Transportation Safety Board – Aviation Investigation Procedures
  • Boeing – Aircraft Systems Overview Documentation

sexta-feira, 1 de maio de 2026

Repeated Aviation Incidents: When Small Failures Signal a Major Accident Is Coming



 In aviation, incidents rarely happen in isolation.

When events begin to repeat, even if they are not identical, it signals something far more serious:

A system under stress — and a risk that is quietly increasing.

This is not speculation.
It is grounded in decades of safety research and real-world accident analysis.

🧠 The Safety Theory Behind Repeated Events

Aviation safety has long recognized that major accidents are rarely sudden.

They are built over time.

📊 The Heinrich Pyramid

Developed by Herbert William Heinrich, it shows that:

  • For every major accident
  • There are dozens of minor incidents
  • And hundreds of unsafe acts

👉 In other words:

The accident is just the visible tip of a much larger, hidden problem.

🧀 The Swiss Cheese Model

Introduced by James Reason

Accidents occur when:

  • Latent failures
  • Active errors
  • And system defenses

align at the same time.

👉 Repeated incidents indicate:

Those layers of protection are already weakening.

⚠️ What Repetition Really Means

When you start seeing:

  • Multiple incidents within a short period
  • Different events in the same operational environment
  • Recurring small deviations

This is not coincidence.

It is a pattern.

A pattern that suggests:

  • Operational pressure
  • Reduced safety margins
  • Communication breakdowns
  • System overload

✈️ From “Near Miss” to “Next Accident”

One of the most dangerous mistakes in aviation is treating incidents as isolated events.

Aviation doesn’t work that way.

It works through trends.

And trends reveal:

  • Gradual degradation
  • Normalization of deviance
  • Increasing exposure to risk

🧠 Normalization of Deviance

A critical concept in accident prevention:

When small errors occur repeatedly:

  • They stop being noticed
  • They become accepted
  • They turn into the “new normal”

👉 This is where the real danger begins.

🚨 The Warning for the Coming Months

When repeated operational events emerge within a short timeframe, the message is clear:

The system is no longer operating with the same safety margins.

And that demands:

  • Increased vigilance from flight crews
  • Stronger air traffic control discipline
  • Immediate procedural review
  • Reinforced communication standards

🎯 A Professional Perspective

From an operational standpoint, repeated incidents are not just warnings.

They are indicators.

Indicators that the system is drifting toward failure — a concept explored in modern safety science as:

“Drift into failure” (Sidney Dekker)

✍️ Conclusion

Aviation has taught us one fundamental truth:

Accidents don’t begin at impact.
They begin long before — with small, repeated signals that go unaddressed.

And when incidents start repeating:

An accident is no longer just a possibility.
It becomes a matter of time.

📚 REFERENCES

  • Heinrich, H. W. (1931). Industrial Accident Prevention: A Scientific Approach.
  • Reason, J. (1990). Human Error. Cambridge University Press.
  • Reason, J. (1997). Managing the Risks of Organizational Accidents.
  • Dekker, S. (2011). Drift into Failure: From Hunting Broken Components to Understanding Complex Systems.
  • ICAOSafety Management Manual (Doc 9859)
  • FAARisk Management Handbook (FAA-H-8083-2)
  • NTSB – Accident investigation reports and safety studies

📢 CALL TO ACTION

If you are part of aviation — pilot, controller, engineer, or enthusiast:

👉 Pay attention to patterns
👉 Share safety knowledge
👉 Never ignore small deviations

Because prevention starts long before the accident.

🧠 AUTHOR BIO 

Marcuss Silva Reis is an economist, commercial fixed-wing pilot, aviation expert witness, and professor of Aeronautical Sciences. With over 30 years of experience in aviation and technical optics, he is the founder of Instituto do Ar, where he publishes in-depth analyses on aviation safety, accident investigation, operational decision-making, and air transport economics. His work combines real cockpit experience with academic insight and investigative analysis, focusing on accident prevention and safety culture development.

🚨 SEGURANÇA DE VOO EM ALERTA: INCIDENTES DIFERENTES NA TMA SÃO PAULO PODEM INDICAR MUDANÇA DE RISCO NOS PRÓXIMOS MESES

 


⚠️ INCIDENTES DIFERENTES, MESMO AMBIENTE: O QUE ISSO REALMENTE SIGNIFICA

Em um curto intervalo de tempo, a terminal aérea mais complexa do país voltou a chamar atenção.

De um lado, uma ameaça de incêndio no APP São Paulo, atingindo diretamente uma estrutura essencial do controle de tráfego aéreo.
De outro, um evento de perda de separação em Congonhas, envolvendo aeronaves em fases críticas de voo.

Os dois episódios são tecnicamente distintos.

Mas a análise profissional não começa pela semelhança — começa pelo contexto.

Quando eventos relevantes passam a surgir em sequência dentro do mesmo sistema, o foco deve sair do “o que aconteceu” e ir para “o que está acontecendo com o ambiente”.

🧠 A AVIAÇÃO JÁ CONHECE ESSE PADRÃO

A ideia de que grandes eventos são precedidos por pequenos sinais não é nova.

Ela está consolidada há décadas na literatura de segurança.

O trabalho de Herbert William Heinrich mostrou que acidentes graves não surgem de forma isolada, mas são precedidos por uma cadeia de ocorrências menores.
Mais tarde, Frank E. Bird Jr. reforçou que a repetição desses eventos indica perda progressiva de controle do sistema.

James Reason trouxe uma leitura ainda mais refinada: cada incidente revela uma falha parcial em uma barreira de proteção. Quando essas falhas passam a se repetir, significa que o sistema está sendo testado continuamente — até que, em algum momento, essas falhas se alinhem.

E é nesse alinhamento que o acidente acontece.

⚠️ O PERIGO MAIS SILENCIOSO: A NORMALIZAÇÃO DO DESVIO

Talvez o aspecto mais crítico dessa discussão esteja no comportamento humano dentro do sistema.

Segundo Diane Vaughan, quando incidentes se repetem sem consequências graves imediatas, eles deixam de ser percebidos como risco.

Passam a ser tratados como parte da operação.

Esse fenômeno é perigoso porque:

  • o risco real aumenta
  • mas a percepção de risco diminui

👉 É exatamente assim que sistemas altamente seguros começam a se degradar sem perceber.

📊 O QUE NÃO APARECE É O QUE MAIS PREOCUPA

Os eventos que chegam ao conhecimento público são apenas a ponta do iceberg.

Abaixo deles existe um volume muito maior de ocorrências que não viram notícia:

  • pequenas falhas de comunicação
  • separações reduzidas sem caracterização formal
  • decisões operacionais no limite da margem
  • sobrecarga momentânea no controle de tráfego
  • ajustes feitos “em tempo” que evitam o pior

Esse conjunto forma o que a doutrina moderna chama de:

ambiente operacional degradado

E é justamente nesse ambiente que os acidentes começam a ser construídos.

🔴 MUDANÇA DE MÓDULO: UM ALERTA PARA OS PRÓXIMOS MESES

A combinação de eventos recentes permite levantar uma hipótese operacional importante:

o sistema pode estar migrando para um novo nível de risco.

Na prática, isso representa uma mudança de módulo operacional, caracterizada por:

  • aumento da frequência de eventos relevantes
  • redução gradual das margens de segurança
  • maior dependência de barreiras defensivas (como TCAS e arremetidas)
  • maior exposição ao erro humano sob carga

Esse tipo de transição não acontece de forma abrupta.

Ela acontece aos poucos — e normalmente é percebida primeiro pela repetição de incidentes.

📡 O QUE A AVIAÇÃO INTERNACIONAL DETERMINA

A ICAO, por meio do Anexo 19, é clara ao estabelecer que:

dados de incidentes devem ser utilizados para identificar tendências e precursores de acidentes.

Ou seja:

  • incidente isolado = evento
  • incidente repetido = tendência
  • tendência ignorada = risco materializado

🎯 UMA LEITURA DIRETA E NECESSÁRIA

Não é preciso que os eventos sejam iguais.

Basta que comecem a aparecer.

E quando aparecem dentro do mesmo sistema, em curto intervalo de tempo, o sinal é claro:

o ambiente está mudando.

✍️ CONCLUSÃO

Os recentes eventos na TMA São Paulo não devem ser analisados de forma fragmentada.

Eles fazem parte de um contexto maior — um contexto onde o sistema começa a dar sinais de que está sendo pressionado.

Na aviação, esses sinais raramente são aleatórios.

Eles são, quase sempre, precursores.

E ignorá-los não elimina o risco.

Apenas adia o momento em que ele se manifesta de forma mais grave.

Se ao ler esse texto qualquer incidente ou acidente tiver sido evitado, a função da prevenção foi alcançada.

📚 REFERÊNCIAS

  • Heinrich, H. W. — Industrial Accident Prevention
  • Bird, F. E. — Practical Loss Control Leadership
  • Reason, J. — Human Error
  • Vaughan, D. — The Challenger Launch Decision
  • ICAO — Annex 19 – Safety Management
  • CENIPA — filosofia SIPAER

  • Marcuss Silva Reis é economista, piloto comercial de aeronaves de asas fixas, perito em aviação e professor de Ciências Aeronáuticas.Com especialidades em segurança da aviação civil,ciencias aeronauticas e docencia do ensino superior Com mais de 30 anos de experiência na aviação em formação, é fundador do Instituto do Ar, onde produz conteúdos especializados sobre segurança de voo, investigação de acidentes, operação aérea e economia do transporte aéreo. Sua abordagem combina análise técnica, experiência prática em cabine e visão crítica sobre o setor aeronáutico nacional e internacional.

Brake news-Quase Colisão em Congonhas: Aviões da Azul e Gol Passam a Metros de Distância em Incidente Grave

 



🚨 Quase colisão em Congonhas expõe falha crítica na separação de aeronaves

Na manhã de 30 de abril de 2026, o Aeroporto de Congonhas, em São Paulo, foi cenário de um incidente aeronáutico grave envolvendo aeronaves das companhias Azul e Gol.

Uma estava em aproximação final para pouso.

A outra iniciava o procedimento de decolagem.

O resultado foi uma proximidade extrema, rompendo qualquer margem aceitável de segurança operacional.

✈️ O que aconteceu em Congonhas

Durante a operação:

  • A aeronave da Azul recebeu autorização para alinhar e decolar
  • A aeronave da Gol já estava estabilizada na aproximação final

O cenário começou a se deteriorar quando:

  • A decolagem não ocorreu dentro do tempo esperado
  • A aeronave em aproximação continuou reduzindo a distância rapidamente

Diante do risco iminente, o controle de tráfego:

  • Ordenou aborto de decolagem
  • Determinou arremetida imediata

Mas o fator tempo já havia sido comprometido.

As aeronaves passaram a poucos metros de distância, caracterizando um dos cenários mais críticos da operação aérea.

⚠️ Por que esse incidente é tão perigoso

Esse tipo de conflito ocorre nas duas fases mais sensíveis do voo:

🛫 Decolagem

  • Alta aceleração
  • Baixa margem para abortar

🛬 Aproximação final

  • Baixa altitude
  • Pouco tempo de reação

Quando há falha de sincronização entre essas fases:

➡️ O risco não é apenas colisão
➡️ Mas também perda de controle e efeitos aerodinâmicos severos

🚨 Riscos envolvidos no incidente

  • Turbulência de esteira (wake turbulence)
  • Incursão de pista
  • Perda de controle em baixa altitude
  • Colisão em voo ou no solo

Mesmo sem impacto, o evento é classificado como:

Perda de separação com alto risco de acidente

🔎 Investigação do CENIPA

O caso será analisado com foco em prevenção, seguindo protocolos internacionais.

Entre os pontos principais da investigação:

📡 Comunicação

  • Falha de contato com a aeronave?
  • Instruções não recebidas ou não compreendidas?

⏱️ Fator tempo

  • A decolagem atrasou além do previsto?
  • A aproximação estava mais rápida?

🎧 Consciência situacional

  • Tripulações tinham percepção completa do tráfego?

⚙️ Sequenciamento

  • Houve erro na liberação da pista?

🧠 O que esse incidente revela sobre a aviação

Esse não é um evento isolado.

É um exemplo clássico de cadeia de falhas:

tempo + comunicação + decisão + execução

Quando esses elementos deixam de se alinhar, a segurança deixa de ser redundante.

E passa a depender de segundos.

⚠️ A regra que salva vidas

Na cabine, existe uma regra absoluta:

Se a pista não estiver completamente livre → ARREMETER IMEDIATAMENTE

Sem hesitação.

Sem negociação.

✍️ Conclusão

O incidente em Congonhas não terminou em tragédia.

Mas deixou um alerta claro:

Mesmo em ambientes altamente controlados,
a segurança depende de precisão absoluta.

Porque, na aviação:

A diferença entre um incidente e um acidente
pode ser medida em metros.


 Marcuss Silva Reis é economista, piloto comercial de aeronaves de asas fixas, perito em aviação e professor de Ciências Aeronáuticas. Com mais de 30 anos de experiência na aviação e na área técnica óptica, é fundador do Instituto do Ar, onde produz conteúdos especializados sobre segurança de voo, investigação de acidentes, operação aérea e economia do transporte aéreo. Sua abordagem combina análise técnica, experiência prática em cabine e visão crítica sobre o setor aeronáutico nacional e internacional.

⚠️ ATR 72 PERDE FREIOS E COLIDE COM AIRBUS EM YANGON

 


quinta-feira, 30 de abril de 2026

Dangerous Goods in Aviation: The U.S. Regulations That Prevent In-Flight Disasters

 


6

The transportation of dangerous goods by air is not just another logistics activity — it is one of the most tightly regulated and risk-critical areas in aviation. For that reason, it is treated as a standalone regulatory framework, with its own rules, terminology, certification requirements, and enforcement structure.

In real-world operations, a single failure — whether in declaration, packaging, or acceptance — can escalate rapidly into in-flight fire, toxic release, or total aircraft loss.

📜 U.S. Legal Framework (Mandatory Compliance)

In the United States, dangerous goods (hazardous materials) transportation is governed by a combination of federal agencies:

✔️ Federal Aviation Administration (FAA)

Responsible for aviation safety oversight and operational compliance.

✔️ Pipeline and Hazardous Materials Safety Administration (PHMSA)

Primary authority for hazardous materials regulation across all transport modes.

✔️ Core U.S. Regulations

🔹 49 CFR (Code of Federal Regulations – Title 49)

The backbone of hazardous materials law in the U.S.:

  • 49 CFR Parts 171–180 – Hazardous Materials Regulations (HMR)
    • Classification
    • Packaging
    • Marking and labeling
    • Documentation
    • Training requirements

🔹 14 CFR (FAA Regulations)

  • Governs operational compliance for air carriers
  • Integrates hazardous materials handling into aviation safety requirements

✔️ International Alignment

The U.S. system is harmonized with global standards established by the Organização da Aviação Civil Internacional:

  • ICAO Annex 18 – Safe Transport of Dangerous Goods by Air
  • ICAO Doc 9284 (Technical Instructions)

Additionally, airlines follow:

  • Associação Internacional de Transporte Aéreo Dangerous Goods Regulations (DGR)

👉 This ensures that a shipment accepted in the U.S. meets the same safety standards worldwide.

⚠️ Legal Definition (U.S.)

Under 49 CFR:

“Hazardous materials are substances or materials capable of posing an unreasonable risk to health, safety, and property when transported in commerce.”

📦 Classification System

The U.S. adopts the same 9 hazard classes used internationally:

  1. Explosives
  2. Gases
  3. Flammable liquids
  4. Flammable solids
  5. Oxidizers and organic peroxides
  6. Toxic and infectious substances
  7. Radioactive materials
  8. Corrosives
  9. Miscellaneous (including lithium batteries)

👉 Lithium batteries are currently one of the most critical safety concerns, with multiple FAA safety alerts issued due to fire risks.

📦 Operational & Legal Requirements

6

Strict compliance is required throughout the entire chain:

✔️ Packaging

  • Must meet UN performance standards
  • Tested for pressure, vibration, and impact

✔️ Marking & Labeling

  • Hazard class labels required
  • Proper shipping name and UN number mandatory

✔️ Documentation

  • Shipper’s Declaration for Dangerous Goods
  • Emergency response information required

✔️ Training (49 CFR 172 Subpart H)

  • Mandatory for all hazmat employees
  • Recurrent training every 3 years (or as required)

✔️ Segregation & Compatibility

  • Certain materials cannot be transported together
  • Strict loading procedures enforced

🚫 Prohibited Materials

U.S. regulations clearly define:

  • Materials forbidden on passenger aircraft
  • Materials restricted to cargo-only operations
  • Substances completely banned from air transport

⚖️ Legal Responsibility & Penalties

Non-compliance in the U.S. is treated with extreme severity:

Civil penalties:

  • Fines exceeding $90,000 per violation (higher if resulting in injury or damage)

Criminal penalties:

  • Possible imprisonment
  • Federal prosecution

👉 Responsibility applies to:

  • Shippers
  • Freight forwarders
  • Air carriers
  • Crew (in certain operational failures)

🧠 Why It’s a Separate Regulatory Chapter

The legal system isolates this topic for three key reasons:

1. Technical complexity

Requires understanding of chemical and physical behavior at altitude

2. Systemic risk

A single undeclared item can compromise the entire aircraft

3. Trust-based chain

The system relies heavily on accurate declaration and verification

✈️ Technical Reflection (Instituto do Ar Style)

In operational reality, dangerous goods highlight a fundamental vulnerability:

👉 The invisible threat.

The aircraft may be perfectly maintained.
The crew may be highly experienced.

And yet, a single undeclared lithium battery shipment can trigger an uncontrollable fire.

Many aviation accidents don’t begin in the cockpit —
they begin in the cargo hold.