Um dos dispositivos mais polêmicos ligados ao debate de morte assistida ou eutanásia voltou ao noticiário com um detalhe novo e ainda mais controverso: inteligência artificial.
O médico australiano Philip Nitschke, conhecido por defender a morte assistida e por idealizar a cápsula Sarco, disse em entrevistas recentes que o projeto “agora tem a parte de IA pronta”. A proposta é que um avatar aplique um teste psiquiátrico para avaliar se a pessoa tem capacidade mental para tomar a decisão. Se “passar”, o sistema liberaria uma janela de tempo para o uso do dispositivo.
O que é a Sarco e por que ela virou caso de polícia
A Sarco é descrita como uma cápsula impressa em 3D que promete permitir suicídio assistido sem intervenção direta de terceiros no “ato final”. A justificativa é justamente tentar se encaixar no modelo suíço, onde a assistência a eutanásia é permitida apenas sob condições específicas.
Em setembro de 2024, uma mulher de 64 anos morreu na Suíça após usar o dispositivo, e o caso gerou uma investigação que levou à prisão preventiva de Florian Willet, então ligado ao grupo “The Last Resort”, por suspeita de envolvimento na facilitação a morte. Ele foi solto em dezembro de 2024.
A Suíça permite assistência a morte quando não há motivo egoísta por parte de quem ajuda e quando a pessoa tem capacidade e realiza ela mesma o ato final.
Onde a IA entra e por que isso acende um alerta
Segundo Nitschke, a próxima versão do projeto, apelidada de “Double Dutch”, mira inclusive casais. E o “filtro” para liberar o uso seria esse teste aplicado por um avatar, em vez da avaliação tradicional com um psiquiatra. Quem passasse teria um período limitado para usar a cápsula.
O problema é que a parte mais sensível de qualquer sistema de suicídio assistido é justamente o critério de capacidade mental e ausência de coerção. Colocar IA como “porteira” levanta dúvidas óbvias: modelos podem errar, podem ser influenciáveis na conversa e não foram desenhados para decidir algo tão extremo. Esse tipo de decisão costuma exigir contexto clínico, histórico, avaliação humana e responsabilidade legal clara.
Mesmo em países com regras relativamente permissivas, a discussão gira em torno de salvaguardas. Não é só “é permitido ou não”. É “como garantir que não há pressão, confusão, crise temporária ou vulnerabilidade explorada”.
E é aí que a ideia de um “teste online com avatar” vira um ponto de ruptura. Porque, se o objetivo é proteger pessoas em situação de fragilidade, automatizar a etapa mais delicada parece andar na direção contrária.
Um recado importante
Nosso foco é falar sobre tecnologia, inovação e futurismo, mas entendemos que este assunto pode ser pesado para algumas pessoas. Se você está passando por um momento difícil, você não precisa lidar com isso sozinho.
No Brasil, você pode falar com o CVV (188), 24 horas por dia, ou acessar o site do CVV para chat e outras formas de apoio. Em caso de risco imediato, procure o SAMU (192) ou vá a uma emergência.
Veja mais sobre tecnologia!




