Nach Selbstmorden und Klagen schränkt Snapchat die App-Erstellung auf seiner Plattform mit neuen Richtlinien ein – TechCrunch


[ad_1]

Nach Belästigung Teenager starb durch Suizideine trauernde Mutter im vergangenen Jahr zur Nachverfolgung die Plattform, auf der der Missbrauch stattfand – Snapchat – weil sie nicht genug getan hat, um ihre jungen Nutzer zu schützen. Noch einer GerichtsverhandlungVerwandt zu einem weiteren Suizid, folgte letzten Monat. Als Antwort auf die erste, Snap verboten Anonyme Messaging-Apps, die Online-Mobbing erleichtert und zugesagt hatten, ihre Richtlinien zu überarbeiten, um die Art von Snapchat-verbundenen Erfahrungen zu bestimmen, die mit ihren Entwicklertools erstellt werden könnten. Heute gab das Unternehmen die Ergebnisse seiner Richtlinienüberprüfung und die Änderungen bekannt, die es vornimmt.

Mit sofortiger Wirkung verbietet Snap für neue Entwickler, die auf seiner Snap Kit-Plattform aufbauen, anonyme Messaging-Apps und verlangt von jedem, der Friend-Finder-Apps entwickelt, diese Apps auf Benutzer ab 18 Jahren zu beschränken. Bestehende Entwickler haben 30 Tage Zeit, um die neuen Richtlinien einzuhalten.

Diese Änderungen beschränken sich auf Apps von Drittanbietern, die in Snapchat integriert sind, gehen aber nicht auf allgemeinere Sicherheitsprobleme der Snap-Plattform ein.

Snap sagt, dass die Richtlinienaktualisierung eine kleine Teilmenge ihrer Community von über 1.500 Entwicklern betreffen wird. Nur etwa 2 % der Entwickler werden vom Verbot anonymer Messaging-Apps betroffen sein, während weitere 3 % von der neuen Anforderung betroffen sein werden, das Alter ihrer Apps zu begrenzen. Das Unternehmen stellte außerdem fest, dass Entwickler, die anonyme Nachrichten aus ihren Apps entfernen, ihre Apps überprüfen lassen können und ein Snap Kit-Partner bleiben können.

Eine Anwendung, die stark von der profitiert hat vorheriges Verbot Bei den anonymen Messaging-Apps YOLO und LMK gehört Sendit zu denen, die Änderungen vornehmen müssen, um weiterhin mit Snapchat arbeiten zu können. Innerhalb weniger Monate nach den Verboten hatte Sendit Millionen weiterer Downloads von Teenagern erhalten, die immer noch nach einer Möglichkeit suchten, anonyme Fragen und Antworten zu posten.

Die Attraktivität anonymer Social Apps ist insbesondere für junge Menschen unbestritten. Aber im Laufe der Jahre hat sich immer wieder bewiesen, dass solche Apps nicht verantwortungsvoll genutzt werden können, sondern verheerende Folgen haben können. Von Anfänge von MySpace von den Teenager-Selbstmorden, die mit Ask.fm in Verbindung gebracht werden, bis hin zu den jämmerlich gut finanzierten anonymen Apps wie Secret und Yik Yak (von denen keines von Dauer war), wurde die Anonymität in den Händen junger Menschen getestet und ist durchweg gescheitert. Angesichts dieser Geschichte war es wohl unverantwortlich, diese Art von Aktivität auf Snapchat überhaupt zuzulassen, angesichts der Kerndemographie von Teenagern und jungen Erwachsenen.

Zusätzlich zum Verbot anonymer Nachrichten wird Snap jetzt auch Freundesfinder-Apps auf erwachsene Benutzer ab 18 Jahren beschränken.

Friend-Finder-Apps wurden entwickelt, um Benutzer mit Fremden auf Snapchat zu verbinden, können Leute dazu ermutigen persönliche Informationen teilenund sind eins gemeinsam Allee für Kinderräuber, um die Jüngsten zu erreichen, gefährdete Snapchat-Benutzer. Oft werden Apps für Dating- oder Sexting-Zwecke verwendet, nicht „Freund-finden“, und vielleicht abgeschlossen mit Pornorobotern. Zum Jahre, Gesetz Durchsetzung Beamte und Kindersicherheitsexperten haben vor Kinderschändern auf Snapchat und gewarnt doppelt Freunde-Finder-Apps wie „Zunder für Teenager.“

Probleme mit diesen Anwendungen bestehen bis heute. Eine im letzten Monat von The Times veröffentlichte Untersuchung zum Beispiel detailliert den weit verbreiteten sexuellen Missbrauch und Rassismus, der heimgesucht wird eine solche App, Yubo.

Das Verbot von anonymem Messaging und Einschränkungen für Apps zur Suche nach Freunden sind heute die einzigen beiden großen Änderungen an den Richtlinien von Snap, aber das Unternehmen stellt fest, dass Apps von Entwicklern immer noch einen Überprüfungsprozess durchlaufen müssen, bei dem sie Fragen zu ihren eigenen beantworten müssen verwenden. Fall und Demonstration ihrer vorgeschlagenen Integrationen. Snap sagte auch, dass es alle sechs Monate regelmäßige Überprüfungen durchführen würde, um sicherzustellen, dass sich die Funktionalität der Apps nicht in einer Weise geändert hat, die gegen seine Richtlinien verstößt. Jeder Entwickler, der absichtlich versucht, Snap zu täuschen, wird vollständig aus Snap Kit und der Entwicklerplattform entfernt, fügte er hinzu.

„Als Plattform, die mit einer Vielzahl von Entwicklern zusammenarbeitet, möchten wir ein Ökosystem fördern, das Apps dabei hilft, die Sicherheit, Privatsphäre und das Wohlbefinden der Benutzer zu schützen, während sie Produktinnovationen für Entwickler freisetzen und ihnen helfen, ihr Geschäft auszubauen“, sagte ein Snap-Sprecher in Bezug auf die Richtlinienaktualisierungen. „Wir glauben, dass wir beides tun können und werden unsere Richtlinien weiterhin regelmäßig bewerten, die Einhaltung der App überwachen und mit Entwicklern zusammenarbeiten, um das Wohlergehen unserer Community besser zu schützen.“

An der Plattformsicherheit von Snap muss noch gearbeitet werden

Während sich die Änderungen auf Apps von Drittanbietern auswirken, die sich in Snapchat integrieren, muss das Unternehmen noch breitere Kindersicherheitsprobleme auf seiner Plattform durch andere Funktionen angehen, wie z. B. begrenzte Erfahrungen mit altersbasierten oder versprochenen Kindersicherungen. Stattdessen stellen die heutigen Änderungen einen ersten Schritt in Richtung dessen dar, was viel mehr Arbeit für das Unternehmen in Bezug auf die Kindersicherheit bedeuten könnte.

Plattformsicherheit ist jedoch bereits branchenweit eine Priorität für Social-Media-Unternehmen, da der regulatorische Druck zunimmt. In seinem Fall wurde Snap im vergangenen Herbst vor den Kongress geschleppt, um Fragen von Gesetzgebern zu verschiedenen Sicherheitsproblemen zu beantworten, die Minderjährige und junge Erwachsene betreffen, die seine App nutzen, darunter die Prävalenz von Inhalten mit Essstörungen und auf Erwachsene ausgerichtete Preise, die für junge Snapchat-Nutzer im Teenageralter unangemessen sind , aber nicht durch eine Altersschranke blockiert.

Auch Snap wurde im Januar verklagt von einer anderen Familie, die ihr Kind durch Selbstmord verlor, nachdem sie dem Druck nachgegeben hatte, sexuell eindeutige Fotos zu senden, die später an Klassenkameraden weitergegeben wurden. der Beschwerde sagt, dass Snapchats fehlende Überprüfung des Alters des Kindes und die Verwendung von verschwindenden Nachrichten zu seinem Tod beigetragen haben. Darüber hinaus erwähnt die Klage die Rolle, die anonymes Messaging spielt, obwohl sie sich nicht direkt auf die Verwendung anonymer Apps von Drittanbietern bezieht.

Im selben Monat, Snap andere Themen angesprochen mit der Empfehlungsfunktion für Freunde, um es Drogendealern zu erschweren, mit Teenagern in der App in Kontakt zu treten. Das Problem war Gegenstand von gewesen eine Untersuchung von NBC News die Snapchat mit dem Verkauf von Fentanyl-haltigen Pillen in Verbindung brachten, die Teenager und junge Erwachsene in mehr als einem Dutzend Bundesstaaten getötet hatten.

Das Unternehmen war zuvor mit Klagen wegen seines „Geschwindigkeitsfilters“ konfrontiert, der es Benutzern ermöglichte, Fotos zu machen, die zeigten, wie schnell sie fuhren. Der Filter hat zu vielen beigetragen Autounfälle, Verletzungenund sogar tot im Laufe der Jahre, wurde aber bis 2021 nicht bei Fahrgeschwindigkeit deaktiviert. (Snap lehnte es ab, sich zu dieser Angelegenheit zu äußern, da der Rechtsstreit noch läuft.)

Jetzt, da der Gesetzgeber endlich versucht, die Wildwest-Tage von Big Tech einzudämmen, in denen Wachstum und Engagement konsequent über die Sicherheit der Benutzer gestellt wurden, bereitet sich Snap darauf vor, einige Änderungen vorzunehmen. Dies stellte seinen allerersten Plattform-Sicherheitsmanager ein, Jacqueline Beauchere, im September.

Snap-CEO Evan Spiegel sagte im Oktober auch, dass das Unternehmen Tools zur Kindersicherung entwickle. Diese Tools – die nach dem Start der Kindersicherung auf TikTok und nur diese Woche auf Instagram folgen würden – ermöglichen es Eltern zu sehen, mit wem ihre Teenager in der App sprechen.

Snap hat nicht gesagt, ob die Tools die anderen Bedenken der Eltern ausräumen werden – einschließlich einer Möglichkeit für Eltern, den Zugriff eines Kindes auf das Senden oder Empfangen von verschwindenden Nachrichten zu deaktivieren, Anfragen für Freunde einzuschränken oder Genehmigungen zu verlangen, das Kind daran zu hindern, Fotos und andere Medien zu teilen , oder verstecken Sie nicht jugendfreie (und häufig Clickbait-artige) Inhalte, die im Entdecken-Bereich der App prominent vertreten sind.

„Wir möchten dazu beitragen, dass Eltern und Jugendliche zusammenkommen können, um sich online sicher und wohl zu fühlen – genauso wie Eltern ihre Kinder im wirklichen Leben vorbereiten“, sagte ein Snap-Sprecher für die Kindersicherung. „Wir hoffen, dass diese neuen Tools als Gesprächsstarter zwischen Eltern und ihren Teenagern darüber dienen, wie man online sicher ist.“

Das Unternehmen sagte, dass seine erste Suite von Kindersicherungen noch in diesem Jahr auf den Markt kommen soll. Änderungen an der Entwicklerrichtlinie sind jetzt live.

Wenn Sie oder jemand, den Sie kennen, an Depressionen leidet oder daran gedacht hat, sich selbst zu verletzen oder sich das Leben zu nehmen, Die nationale Rettungsleine für Suizidprävention (1-800-273-8255) bietet kostenlose, vertrauliche Unterstützung rund um die Uhr für Menschen in Not sowie bewährte Verfahren für Fachleute und Ressourcen zur Unterstützung bei Präventions- und Krisensituationen .

[ad_2]

Source link