Od jakiegoś czasu w firmie prowadzone są prace nad LaMDA (The Language Model for Dialogue Applications), czyli sztuczną inteligencją przeznaczoną do tworzenia chatbotów. Do tej pory pieczę nad jednym z ważniejszych elementów systemu sprawował Blake Lemoine. Jego zadaniem było testowanie sprzętu pod kątem mowy nienawiści. Inżynier stracił posadę gdy uznał, że podzieli się swoją teorią na temat niesamowitego wynalazku. Według niego, technologia ta jest na tyle zaawansowana, że „zrodziły się" w niej uczucia, których człowiek nie kontroluje. System bez problemu umie rozmawiać z ludźmi na dowolny temat. Przełomową cechą jest to, że umie nawiązać do przekonań religijnych i trudnych emocji.
Zdeterminowany były pracownik Google za wszelką cenę chciał udowodnić światu słuszność swojej teorii. Nie spodobało się to jednak jego pracodawcy i widząc posty na Twitterze, które udostępniał Blake - natychmiast zwolnił go z posady. Naruszenie polityki prywatności firmy i postawienie jej w złym świetle, zmusiło firmę do wystosowania oświadczenia, w którym podkreślili, że bez przerwy bacznie obserwują każdy mały szczegół, który dotyczy LaMDA i nie bagatelizują żadnych niepewności.
„Mimo dokładnego zgłębiania tematu przez wiele miesięcy, Blake zdecydował się naruszyć jasne zasady dotyczące bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” napisała firma w oświadczeniu.
Sprawa trafiła w ręce prawników byłego pracownika. Jak wiemy ze źródeł BBC News, obecnie Blake Lemoine jest na płatnym wypowiedzeniu i czeka na wyniki w sprawie.