Kanadyjskie próby stworzenia Online Harms Act zostały porównane przez Twittera do wprowadzania zasad panujących w Chinach, Korei Północnej czy Iranie. Przedstawiciel Twittera w opinii przesłanej w zeszłym roku do rządu federalnego zauważył, że w państwach autorytarnych właśnie pod pozorem „bezpieczeństwa w internecie” blokuje się ludziom dostęp do informacji. Zwrócił też uwagę na proponowaną instytucję Komisarza ds. Bezpieczeństwa Cyfrowego, podkreślając, że brakuje możliwości weryfikacji działań takiego urzędu poprzez np. wymaganie upoważnienia sądowego lub wydawania ostrzeżeń usługodawcom internetowym.

Minister dziedzictwa narodowego Pablo Rodriguez w ramach ubiegłorocznych konsultacji otrzymała wiele tego rodzaju opinii. Gdyby nie zapytanie profesora prawa z University of Ottawa, Michaela Geista, o udostępnienie ich na zasadzie Access to Information, treść dokumentów najprawdopodobniej byłaby utrzymywana w tajemnicy.

Ustawa została opracowana przez departament dziedzictwa narodowego w 2021 roku, wtedy jeszcze pod wodzą Stevena Guilbeault, obecnego ministra środowiska i zmian klimatu. Przewidywała powołanie Digital Safety Commission, której zadaniem byłoby monitorowanie zawartości internetu pod kątem treści, które mogłyby być uznawane za obraźliwe. Komisja miałaby możliwość wydawania 24 godzinnych not nakazujących zdjęcie oznaczonych treści, a także blokowania przez usługodawców internetowych dostępu do określonych stron. Ponadto Canadian Security Intelligence Service miałoby prawo do uzyskiwania danych użytkowników od operatorów internetowych.

PONIŻEJ KONTYNUACJA TEKSTU

Po ujawnieniu opinii przesłanych w ramach konsultacji widać, że zdania zainteresowanych stron były niemal jednogłośnie negatywne. Ministrowie m.in. Rodriguez, Chrystia Freeland, Melanie Joly czy premier Justin Trudeau często wyrażają obawy o szerzenie dezinformacji w internecie, ale z dokumentów przesłanych przez zainteresowane strony wynika, że problem nie jest tak poważny, jak przedstawia go rząd.

Powołując się na dane z pierwszego kwartału 2021 roku TikTok stwierdził w swojej opinii, że mniej niż 1 proc. zamieszczanych filmów naruszało ustalone zasady, przy czym 91,3 proc. zostało usuniętych zanim jeszcze ktokolwiek zgłosił skargę. Michele Austin z Twittera zauważyła z kolei, że czasem cenzura jakichś treści powoduje, że użytkownicy zwracają na nie więcej uwagi niż normalnie. Niekiedy lepiej jest nie robić nic.

Ograniczenia wolności w internecie w związku z możliwym wprowadzeniem ustawy o przeciwdziałaniu nienawiści internecie obawiają się społeczności LGBTQ, ludność rdzenna i mniejszości rasowe. Walka z mową nienawiści w internecie może prowadzić do niesprawiedliwego monitorowania przez policję marginalizowanych grup, takich jak pracownicy sektora rozrywek seksualnych. Wymienione grupy podkreślają, że internet jest jednym z niewielu miejsc, gdzie wolność wypowiedzi wciąż jest dla nich możliwa, a nowe prawo ograniczy ich wolność. Darryl Carmichael z wydziału prawa University of Calgary, uważa, że treści zamieszczane przez osoby należące do tych społeczności mogą być błędnie uznane za szkodliwe. Podaje przykład Black Lives Matter, którego posty są błędnie oznaczane jako mowa nienawiści i usuwane. Podobnie mogą być usuwane wpisy dotyczące zaginionych i zamordowanych kobiet i dziewcząt wywodzących się z ludności rdzennej. Pracownicy sektora rozrywek seksualnych działający przez internet obawiają się, że mogą być aresztowani za zamieszczane treści, a ich strony będą blokowane.

National Association of Friendship Centres, sieć centrów oferująca program i wsparcie dla osób należących do ludności rdzennej mieszkających w miastach, podkreśla, że ludność rdzenna w internecie prężnie działa i trzyma się razem, organizując np. akcje przeciwko projektom wydobycia surowców. Z nową ustawą takie inicjatywy mogą być oflagowane jako „antyrządowe przykłady indiańskiego cyberterroryzmu”.

Eksperci zauważają, że używane algorytmy mogą poprzestać na wyłapywaniu słów kluczowych bez odniesienia do kontekstu, co może prowadzić do nieuzasadnionego angażowania służb policyjnych.