A Tesla rastreia motoristas para avaliar sistema Full Self-Driving

O sistema da Tesla para avaliar a segurança dos motoristas foi criticado enquanto a empresa se preparava para lançar seu software Full Self-Driving para mais proprietários.

Por Faiz Siddiqui do Washington Post

SAN FRANCISCO — A Tesla foi a empresa pioneira nos modos de direção chamados “Insane” e “Ludicrous” que maximizaram a aceleração dos carros, praticamente encorajando as corridas. Os sistemas automatizados dos carros também introduziram novos comportamentos — alguns deles indelicados, como não reagir a mudanças de faixa sinalizadas ou fazer curvas acentuadas em alta velocidade.

Agora, a Tesla quer que seus drivers sejam legais. E começou a testá-los no final do mês passado. A empresa está expandindo este mês sua versão beta do software Full Self-Driving, o conjunto mais avançado de recursos de assistência ao motorista da Tesla.

Para se qualificar para isso, os motoristas devem primeiro concordar em permitir que o Tesla monitore sua direção — um esforço aparente para garantir que isso vá apenas para os usuários mais seguros da estrada — pontuando-os em cinco categorias com base nos dados coletados por seus carros, incluindo quando eles estão dirigindo no piloto automático. Eles são penalizados, por exemplo, por frear muito forte. O lançamento das atualizações será escalonado em ordem decrescente de pontuação, de 100 para baixo, disse no Twitter, o CEO da Tesla, Elon Musk.

Musk expôs os termos do sorteio: “FSD Beta 10.2 será lançado na sexta-feira à meia-noite para cerca de 1.000 proprietários com pontuações de segurança 100% perfeitas”, disse ele. No início da manhã de sábado, Musk declarou que havia “algumas preocupações de última hora” e que o lançamento precisaria ser adiado; mais tarde, disse que seria na noite de domingo.
Uma das razões pelas quais a Tesla deseja que bons motoristas tenham acesso ao modo Full Self-Driving é porque os humanos ajudam a treinar seu software sobre como dirigir. Os maus hábitos de direção humana — como bloquear as pessoas, ultrapassar os sinais de vermelhos e aproximar-se demais do carro da frente — podem ser incorporados ao software, potencialmente replicando esses hábitos em muitas outras comunidades.
Essa é outra maneira que a Tesla está redefinindo o significado da propriedade de um carro, transformando o relacionamento em uma via de mão dupla em que, em troca de oferecer novos recursos, ele libera milhares de motoristas em vias públicas como testadores beta. Esses usuários estão mudando o comportamento padrão das estradas e — se tudo correr conforme o planejado para o Tesla — darão início a um futuro autônomo no processo.
Até Musk admitiu anteriormente que o Full Self-Driving não está completamente pronto. Ele disse em uma reunião para anunciar os lucros da empresa neste verão que uma assinatura era uma proposta "discutível" para os consumidores, acrescentando: "Precisamos fazer o Full Self-Driving funcionar para que seja uma proposta de valor atraente.” A Tesla não respondeu a um pedido detalhado de comentário.
Tem sido uma curva de aprendizado para os motoristas, alguns dos quais recorreram ao Twitter para reclamar. Os critérios pelos quais eles estão sendo avaliados incluem frenagem brusca; alguns dizem que estão limitando o uso dos freios. Uma avaliação do Consumer Reports disse que o sistema de pontuação "pode levar a uma direção insegura".

Outros motoristas dizem que o sistema cortou seus hábitos de acelerar os carros nos cruzamentos, seguir os outros de perto e fazer curvas. Mas alguns motoristas reclamaram que o sistema é muito sensível.

“A lição do Safety Score Beta é acertar todas as luzes amarelas”, escreveu um usuário do Twitter. Se a frenagem regenerativa do carro não o desacelera primeiro —recuperando a energia e reduzindo a velocidade do carro —"você vai ser atingido por uma frenagem brusca".

Outros reclamaram de serem penalizados injustamente por obedecer às regras de trânsito, por exemplo, uma aparente falta de “consciência contextual” na experiência de outro usuário.

“Estou muito aborrecido”, escreveu o usuário a Tesla. “7 dias perfeitos consecutivos e hoje um semáforo ficou amarelo logo à frente e eu tive que pisar no freio muito suavemente. ... Frear era mais seguro do que acender a luz.”

O novo lançamento do Full-Self Driving suscitou preocupações para reguladores e pesquisadores de segurança. A presidente do National Transportation Safety Board, Jennifer Homendy, disse ao jornal The Washington Post no mês passado que estava preocupada que a Tesla estava lançando novos recursos sem abordar as recomendações de segurança anteriores do Conselho, que incluíam limitar o uso de recursos automatizados às condições para as quais foram projetados e desenvolver um driver de melhor monitoramento.

Alguns criticaram a Tesla por lançar outra experiência ao público. “Eles terceirizaram os testes para não-profissionais e fãs, é claro que vão descobrir como hackear o sistema de pontuação e encobrir as falhas da Inteligência Artificial (IA)”, disse Joshua Brian Irwin, advogado de Bernadette Saint Jean, cujo marido foi morto em uma via expressa de Long Island em julho, quando um Tesla que se acreditava estar usando recursos automatizados o atingiu na beira da estrada.

Mesmo se eles não obtiverem acesso ao beta, os motoristas da Tesla ainda podem usar o sistema de assistência ao motorista chamado Autopilot, o software que conduz os carros da rampa de acesso à saída da rodovia e pode estacionar e levar os veículos aos seus proprietários. O Full Self-Driving leva essa suíte para os bairros e ruas da cidade, permitindo que os motoristas conduzam seus carros do Ponto A ao Ponto B, de preferência sem a intervenção do motorista.

O software Autopilot dos carros age de forma diferente do que um motorista típico faria: ele não reage de forma automática quando alguém está com o pisca-pisca ligado para tentar se fundir, por exemplo, e não os deixa entrar até que detecte que estão se movendo para a pista. Da mesma forma, carros Teslas no modo Autopilot tendem a entrar o lado da estrada na faixa de ultrapassagem, mesmo se alguém estiver tentando passar. Esses hábitos podem ser comuns em um futuro de direção cada vez mais automatizado.

O proprietário do Tesla Model Y, Peter Yu, um pesquisador de Inteligência Artificial baseado em Detroit, descreve alguns dos comportamentos do piloto automático como "perturbadores": “É um pouco diferente de como um humano faria”, disse ele. “Não é tão defensivo.”

Ele descreveu uma situação que vivencia “diariamente”, em que o carro faz curvas na rodovia a toda velocidade, mesmo que o veículo na próxima faixa seja um semi-caminhão que pode virar para a sua direita de passagem.

“O carro realmente não leva isso em consideração”, disse ele. “Basicamente, ele dirá 'ei, eu vou embora'. … É muito desconfortável para mim.”

A Tesla não requer testes para obter acesso ao seu software Autopilot, que contém recursos de assistência ao motorista que exigem que o operador preste atenção o tempo todo. Houve vários acidentes fatais enquanto o sistema era ativado, incluindo um que matou o engenheiro da Apple Walter Huang em 2018 quando seu Tesla Model X bateu em uma barreira de concreto. O NTSB, citou o excesso de confiança no piloto automático e o monitoramento ineficaz do motorista no acidente.

A Administração Nacional de Segurança de Tráfego Rodoviário está investigando o Autopilot — a iteração menos avançada da assistência ao motorista da Tesla — em cerca de uma dúzia de acidentes envolvendo veículos de emergência estacionados enquanto o Autopilot estava ativado.

No final das contas, a Tesla quer usar o Full Self-Driving para liberar sua ambição de um milhão de robô-táxis na estrada — trazendo o futuro autônomo há muito prometido em realidade. Mas os carros não possuem o hardware e os conjuntos de sensores normalmente usados por empresas que implantam carros autônomos. Os sistemas são considerados meramente como mais uma iteração da assistência ao motorista, que exige que o motorista preste atenção o tempo todo.

E a Tesla está bem ciente do potencial de incidentes, incluindo travamentos perigosos e de alto perfil, que podem comprometer o software e prejudicar suas ambições.

Agora está pontuando os motoristas em cinco fatores: frenagem brusca, curvas agressivas, perseguição insegura , avisos de colisão frontal e desativação do piloto automático, que podem acontecer quando os motoristas deixam de indicar que estão prestando atenção.

Mas os motoristas dizem que costumam dirigir de maneira diferente em seus Teslas do que em outros carros. O proprietário do Tesla Model S, Stefan Heck, diz que seu carro oferece aceleração máxima praticamente no momento em que ele toca no acelerador, ao contrário dos carros a gasolina que precisam acelerar seus motores e procurar a marcha certa. Isso permite que ele passe por outros motoristas rapidamente, para poder mudar de faixa e pegar o sinal verde.


Quando ele pega emprestado o Lexus híbrido da esposa, ela diz: “'você tem que abandonar seus hábitos do Tesla'”, disse Heck, fundador e CEO de uma empresa chamada Nauto que fornece ferramentas de software e hardware para ajudar os motoristas comerciais a melhorar sua segurança.

A métrica de pontuação da Tesla, disse Heck, polariza os veículos contra proprietários em São Francisco e Nova York, que terão que recorrer a certas manobras em tráfego pesado, por exemplo, ou encontrar estradas abertas com menos regularidade.

“Se eu comprar um Tesla em — digamos — Kansas e comprar um Tesla em Manhattan e apenas for para a estrada em condições normais, coisas normais que faria, vou acabar com uma pontuação mais baixa em Manhattan do que eu faria no Kansas”, disse Heck. E não leva em consideração dois fatores principais de acidentes, disse ele, distração e excesso de velocidade.

Um ex-funcionário da Tesla que trabalhou no piloto automático, que tem acesso ao modo Full Self-Driving, mas falou sob a condição de anonimato porque está vinculado a um acordo de sigilo que rege a divulgação de informações sobre ele, disse que a pontuação de segurança mudou a forma como ele dirige — para melhor ou pior.

“Para conseguir um 100, você não pode pisar no acelerador, você precisa ligar o sinal ao mudar de faixa, você não pode seguir muito perto”, disse ele. “Eu parei lentamente de frear forte apenas para ver se isso afetaria o placar.”

Mas o software, disse ele, define muito facilmente as curvas como "agressivas", especialmente para áreas densamente povoadas e locais com curvas fechadas em oposição a trechos largos e vazios de estrada.

Mohammad Musa, fundador da Deepen AI, que visa ajudar as empresas a lançar assistência ao motorista segura e sistemas de direção autônoma, diz que Tesla tem a ideia certa — mesmo que a pontuação precise ser ajustada ao longo do tempo.

“É um passo na direção certa”, disse Musa. “Quanto mais podemos quantificar o comportamento e também encorajar o comportamento correto das pessoas — é como jogar no processo. Se você sabe que está sendo pontuado, é mais provável que se comporte da maneira certa.”

Deixar seu comentário

0
termos e condições.
  • Nenhum comentário encontrado

newsletter buton