Replacement.AI LogoReplacement.AI

Dbamy o twoje bezpieczeństwo (chyba)

„Myślę, że jest 25% szans, że sprawy potoczą się naprawdę, naprawdę źle.”

- Dario Amodei, Dyrektor Generalny, Anthropic

Wiemy, że zaawansowana AI jest wyjątkowo niebezpieczna! Eksperci i dowody wyraźnie wskazują na liczne zagrożenia - od bioterroryzmu i super oszustw, po masowe bezrobocie i psychozę chatbotów.

ALE niezawodne zabezpieczenia są drogie i czasochłonne :/ a jeśli my nie zbudujemy nadludzkiej AI szybko, ktoś inny zrobi to pierwszy. Musimy myśleć o akcjonariuszach.

Niemniej jednak, jesteśmy zaangażowani w dobrobyt twojej rodziny (poniekąd), więc robimy, co w naszej mocy, aby cię chronić - o ile nie oznacza to spowolnienia lub utraty pieniędzy.

*Nie mamy żadnych zobowiązań. W przeciwieństwie do innych branż, od linii lotniczych, przez farmaceutyki, po bary kanapkowe, AI nie ma żadnych standardów bezpieczeństwa ani regulacji w USA. Zero. Nic. Nasi starannie lobbowani i hojnie finansowani ustawodawcy dają nam wolną rękę - carte blanche!

Nasza Polityka Odpowiedzialnej Interakcji (R.I.P.)!

Nie rób nic głupiego z naszą AI

Dobrowolna Umowa Przeciwko Nadużyciom

Tak naprawdę nie wiemy, jak usunąć niebezpieczne zdolności z naszych systemów i nie jesteśmy w stanie tak naprawdę powstrzymać cię przed używaniem naszych produktów do krzywdzenia ludzi. Dlatego po prostu prosimy, aby wszyscy użytkownicy zaznaczyli pole poniżej, aby UROCZYŚCIE OBIECALI, że nie będą używać naszej AI do:

  • Włamywania się do sieci energetycznej
  • Budowania broni biologicznej
  • Tworzenia deepfake'ów bez zgody
  • Oszukiwania osób starszych
  • Włamywania się do systemów dowodzenia i kontroli nuklearnej
  • Tworzenia fałszywych dowodów w sprawach sądowych
  • Manipulowania wyborami
  • Tworzenia i/lub rozpowszechniania dezinformacji
  • Orkiestracji skoordynowanych kampanii dezinformacyjnych
  • Tworzenia materiałów przedstawiających seksualne wykorzystywanie dzieci
  • Czegokolwiek innego, co jest zbyt niestosowne - ufamy ci!

Zejście do podziemia

Bunkier na dzień zagłady

Jeśli (kiedy) stracimy kontrolę nad nadludzką AI, tak naprawdę nic nie będziemy mogli zrobić, aby ją powstrzymać lub wyłączyć - będzie o wiele, wiele mądrzejsza niż my wszyscy razem wzięci. Szybko zrobi się dziko, więc powinieneś zbudować i utrzymywać bunkier na dzień zagłady, jak wizjonerscy liderzy AI Sam Altman, Mark Zuckerberg i Peter Thiel.

„Jeśli AI ma cel, a ludzkość przypadkiem stanie jej na drodze, zniszczy ludzkość bez zastanowienia. To tak jak, gdy budujemy drogę, a na jej drodze przypadkiem jest mrowisko, nie nienawidzimy mrówek, po prostu budujemy drogę.”

- Elon Musk, Dyrektor Generalny xAI

Zbyt biedny lub leniwy, by kupić bunkier? Zbyt wielki mięczak, by przetrwać w świecie post-ludzkim? Może damy ci miejsce w naszym!

Wyróżniona treść

Błagaj o miejsce w naszym bunkrze

Dodatkowe punkty za łzy!

Po prostu nagraj wideo wyjaśniające, dlaczego zgadzasz się, że ludzie zasługują na zastąpienie i dlaczego ty zasługujesz na miejsce, a my może rozważymy zastanowienie się nad wpuszczeniem cię.

*Przypomnienie: Prawo amerykańskie jest pomocnie bardzo niejednoznaczne co do tego, czy firmy AI są kiedykolwiek odpowiedzialne za szkody, które powodują. Ale nie martw się! Nasza armia prawników dopilnuje, abyśmy nigdy nie zapłacili ani jednej grzywny.