#moderaci%C3%B3n

Mostos y DestiladosRevistaMyD
2025-06-10

El consciente y la ha impulsado en el mundo el de las bebidas y las opciones listas para (RTD, su sigla en inglés). Esta ya está redefiniendo el global y también el chileno

mostosydestilados.cl/bebidas-s

STOPDISINFORMATIONStopDisinformation
2025-05-22

: La empresa de anunció la reversión de la política de (y marcar) la en sus redes sociales

En lugar de contar con los equipos de de -checkers los usuarios podrán comentar posteos si entienden que hay o engañosa, al igual que sucede con la política de Elom Musk en X.

Eliminar la (que tiene sus problemas) es lo que piden los republicanos, que acusan a Meta de “censura”.

🔗 nytimes.com/2025/01/07/busines

EMDNT (El Mal De Nuestro Tiempo)EMDNT@neopaquita.es
2025-04-30

Tengo una duda sobre esto porque es probable que cubra el juicio. Como usuarios (y como instancia) ¿queréis que publique todo con CW?

@neopaquita #neopaquita #neopaquiters #pregunta #moderacion

Mostos y DestiladosRevistaMyD
2025-02-25

En los últimos , el consumo de ha experimentado un . Cada vez más están optando por un más al momento de de sus , priorizando la sin renunciar al de un buen cóctel

mostosydestilados.cl/menor-gra

Diario El Mundoelmundohn
2025-01-27

División en el Partido Nacional ante crisis presupuestaria del Congreso#PartidoNacional
tinyurl.com/29phlaph

Qué consecuencias podría tener que meta abandone la verificación de datos por parte de especialistas

Uge analiza:

Como conté, me preguntaron qué consecuencias podría tener que meta abandone la veridificación de datos por parte de especialistas. Creo que hay tres tipos de posibles impactos: cantidad de correcciones, precisión de las correcciones, y consecuencias cognitivas. Va hilo

— Uge (@ugemitch.bsky.social) 8 de janeiro de 2025 às 16:57

https://embed.bsky.app/static/embed.js

  1. 1) la cantidad de posteos que seran chequeados, por dos motivos:1) tal vez la desaparición del fact checking haga que mas personas/instituciones posteen desinformacion, y 2) manejar/administrar las community notes tambien implica trabajo, cuantas habra? Mas o menos que fact checks «oficiales»?
  2. El segundo tipo de impacto es en la precisión de las correcciones.seran mas o menos precisas/correctas las community notes que los chequeos oficiales? Quien las va a gestionar. Quien chequea a los que chequean las community notes?
  3. El tercer tipo de impacto es en la correccion de creencias: los usuarios de meta van a corregir mas o menos, o lo mismo, sus creencias en informacion falsa cuando ven una community note que cuando ven un fact check?
  4. Sabemos que la aceptacion de fact checks esta mediada por creeencias anteriores, orientacion politica, encuadre. ¿Como van a interactuar las community notes con esos factores? En varios paises cae la confianza en instituciones (los medios entre ellas) tal vez otros usuarios sean mas confiables?
  5. Y finalmente, esto no es un impacto en fact checking, pero si en las finanzas y la politica de meta: las community notes no son pagas (solo hay que pagar a quienes las gestionan), con lo que posiblemente ahorren algo de plata, y es un gesto a la administracion Trump.

a

#ElonMusk #facebook #instagram #MarkZuckerberg #moderación #moderaciónDeContenidos #notas #notasDeLosUsuarios #trump

Paty Peñapatana@lile.cl
2025-01-23

Hace unos días participé junto a colegas de América Latina academic@s, activistas y expert@s en dd digitales e conversatorio organizado x observacom sobre los alcances y del cambio de #moderación de contenido en plataformas de #Meta : #libertaddeexpresion #desinformación y más . Acá el link de registro bit.ly/MetaVsAméricaLatina

Mostos y DestiladosRevistaMyD
2025-01-14

La marca @CasillerodelDiablo estrenó en el chileno su variedad Red Rosé, que ofrece pocas y bajo grado . Es ideal para y que persiguen en el consumo y menor del alcohol

mostosydestilados.cl/nuevo-ros

Sobre los cambios en la política de moderación de Meta (Facebook, Instagram, Threads)

Hace tiempo me fui de Twitter (antes que fuera «X», nunca usé Facebook ni Instagram, pero intentaría irme si estuviera ahí!)

Uso Mastodon que es algo parecido a la vieja Twitter!

Desde La Derecha Diario:

Meta permitirá que los usuarios traten a las personas LGBT de ‘enfermos mentales’

Mark Zuckerberg anunció el fin de la censura en sus plataformas y la vuelta de una mayor libertad de expresión.

El CEO de Meta, Mark Zuckerberg, anunció recientemente que eliminará la censura existente en sus plataformas, devolviéndole la libertad de expresión a los usuarios.

Según la información que difundió, con estas nuevas directrices de Meta, las plataformas como Instagram y Facebook permitirán que los usuarios puedan decirle «enfermos mentales» a personas basándose en su sexualidad o identidad de género.

Las pautas, que fueron actualizadas el martes, aún prohíben que los usuarios de Facebook, Instagram o Threads insulten a las personas debido a su salud mental, con la excepción de este nuevo caso específico.

Asimismo, se eliminaron las normas que prohibían los insultos sobre la apariencia de una persona relacionados con su razaetniaorigen nacionaldiscapacidadafiliación religiosaorientación sexualsexoidentidad de género y enfermedades graves.

«Las plataformas de Meta están diseñadas para ser lugares donde las personas puedan expresarse libremente. Eso puede ser un caos«, indicó la empresa en un comunicado.

«En plataformas donde miles de millones de personas pueden expresarse, todo lo bueno, lo malo y lo feo se muestra. Pero eso es libertad de expresión«, añadió.

La Derecha Diario

La libertad de expresión que tanto le gusta a la extrema derecha! ¿Cuánto daño vendrá con esto?

“En Meta es un caos interno total en este momento”: los empleados protestan por los cambios anti LGBTQ de Zuckerberg

Los empleados de Meta están furiosos con los cambios de moderación de contenido anunciados recientemente por la empresa que permitirán a los usuarios decir que las personas LGBTQ+ tienen una «enfermedad mental», según conversaciones internas obtenidas por 404 Media y entrevistas con cinco empleados actuales. Los cambios fueron parte de un cambio más amplio que Mark Zuckerberg anunció el lunes para moderar mucho menos el contenido en las plataformas Meta.

“Soy LGBT y tengo una enfermedad mental”, dice una publicación de un empleado en una plataforma interna de Meta llamada Workplace. “Solo para informarle que me tomaré un tiempo para cuidar mi salud mental”.

El lunes, Mark Zuckerberg anunció que la compañía volvería «a nuestras raíces en torno a la libertad de expresión» para permitir «más libertad de expresión y menos errores». La compañía dijo que «nos estamos deshaciendo de una serie de restricciones en temas como la inmigración, la identidad de género y el género que son objeto de frecuentes discursos y debates políticos». Una revisión de las políticas oficiales de moderación de contenido de Meta muestra , específicamente, que algunos de los únicos cambios sustanciales a la política se realizaron para permitir específicamente «acusaciones de enfermedad mental o anormalidad cuando se basan en el género o la orientación sexual». Se sabe desde hace mucho tiempo que ser LGBTQ+ no es un signo de «enfermedad mental «, y la falsa idea de que la sexualidad o la identificación de género es una enfermedad mental se ha utilizado durante mucho tiempo para estigmatizar y discriminar a las personas LGBTQ+.

A principios de esta semana, informamos que Meta estaba eliminando el disenso interno sobre el nombramiento por parte de Zuckerberg del presidente de UFC, Dana White, como miembro de la junta directiva de Meta.

Otro hilo en el sitio interno Workplace de Meta que tiene varios cientos de comentarios y más de mil reacciones dice: “[feedback] Orientación sexual y género como enfermedad mental… Agradecería más detalles sobre: ​​cómo se tomó la decisión de actualizar la política, en particular dado que esto no refleja ningún consenso científico generalizado; cómo la política refleja nuestros valores y perspectivas como empresa, y si estos son diferentes a los valores que hemos expresado en el pasado; a quiénes (si los hubo) grupos LGBT [internos o externos] se consultó como parte de este cambio”.

Un miembro del equipo de políticas dijo a los empleados en el hilo que “nuestros valores fundamentales no han cambiado”.

“Los cambios en nuestra política de conducta de odio buscan deshacer la expansión de la misión que ha hecho que nuestras reglas sean demasiado restrictivas y propensas a una aplicación excesiva”, escribieron en un hilo de empleados. “Reafirmar nuestro valor fundamental de la libertad de expresión significa que podríamos ver contenido en nuestras plataformas que la gente considere ofensivo… los cambios de ayer no solo abren la conversación sobre estos temas, sino que permiten un discurso contrario sobre lo que les importa a los usuarios”.

Cinco empleados actuales de Meta hablaron con 404 Media y dijeron que muchos empleados de Meta están furiosos por los cambios, una evaluación que parece ser precisa según capturas de pantalla de varios hilos internos obtenidos por 404 Media.

“En este momento en Meta hay un caos total a nivel interno”, dijo un empleado actual a 404 Media.

“Todos los comentarios que se han compartido son un rechazo a la nueva política, salvo por un líder que repite los puntos de conversación de Zuckerberg. Yo diría que se trata de un shock emocional y de incredulidad”, añadieron. “Es una vergüenza y un pudor que se sienten autoinfligidos, diferentes a los errores que la empresa ha cometido en el pasado”.

“Nadie está entusiasmado ni contento con estos cambios. Y, obviamente, los empleados que se identifican como parte de la comunidad LGBTQ+ están especialmente descontentos y se sienten menos apoyados en esto”, dijo otro empleado a 404 Media. “Un pequeño número de personas se están tomando tiempo libre y están compartiendo que están considerando dejar la empresa debido a este cambio”.

“La moral de los compañeros queer está por el suelo, algo que no sorprende a nadie”, dijo un tercer empleado a 404 Media.

Una respuesta al hilo dice: “Me gustaría poder dimitir en protesta, pero ya he dimitido”.

Otros comentarios incluyen:

  • “Me resulta muy difícil entender cómo el hecho de establecer explícitamente qué grupos de personas marginadas pueden ser blanco de lo que de otro modo clasificaríamos como discurso de odio dirigido a ellos será beneficioso para las comunidades que esperamos construir en nuestras plataformas”.
  • “Este cambio es inaceptable a todos los niveles”.
  • “Alguien adoptó esta política y no solo eliminó la protección, sino que, de hecho, redobló la apuesta y la autorizó explícitamente. Es una locura total”.
  • “Tuve que releer el texto de la política muchas veces para creer lo que estaba viendo: una declaración muy clara de que no tenemos ningún problema con que la gente ataque a otros por su orientación sexual o identidad de género. No puedo ni siquiera imaginar por qué pensamos que esto es aceptable o útil para nuestra comunidad y la misión de nuestra empresa. Nunca he tenido la sensación tan firme de que estamos en el lado equivocado de la historia. Esto va a causar tanto daño. Por favor, reconsideren este cambio”.
  • “Cuando me incorporé a esta empresa, la gente me criticaba por trabajar aquí todo el tiempo. Los defendí una y otra vez, siempre recalcando que al final hacemos lo mejor que podemos, incluso si a veces no funciona, pero ¿esto? Es espantoso”.
  • “Creo que está claro que el equipo de políticas no está abierto a recibir comentarios y está comprometido con un proyecto ideológico que sacrifica a algunas de nuestras comunidades para lograr su objetivo”, escribió un empleado. “Llámenme travesti y cierren la discusión. Al menos sería honesto”.

Otros empleados señalaron que no pudieron encontrar una discusión interna sobre cómo se realizaron los nuevos cambios. Hace varios años, visité la sede de Meta y estuve presente en una reunión sobre políticas de contenido, en la que decenas de empleados y abogados discutieron extensamente cómo se realizarían cambios específicos en las reglas, a quiénes afectarían y solicitaron aportes de organizaciones sin fines de lucro y expertos externos. En el hilo obtenido por 404 Media, los empleados dijeron que no pudieron encontrar información sobre cómo se creó la política y a quién se consultó.

“¿Nos perdimos un Foro de Políticas donde pudiéramos escuchar los resultados de cualquier investigación que respalde este cambio y las opiniones de todos?”

“Busqué uno y tampoco lo encontré”, respondió otra persona.

“¿Puede el equipo de políticas explicar también por qué la empresa no tenía preparada una respuesta para algo que claramente tendría un impacto tan significativo, tanto interna como externamente, en los empleados/usuarios que entran en estas categorías?”, dijo otro. Un cuarto dijo: “Los cambios en la política de Meta deberían hacerse de forma meditada, con una consulta considerable de analistas de políticas, abogados y otros expertos en la materia. Esos cambios deberían tener una justificación documentada, preferiblemente disponible públicamente. Como mínimo, Meta debería poder explicar a los empleados de la empresa por qué ahora es aceptable llamar a un gran número de ellos enfermos mentales o referirse a ellos como ‘propiedad’ o referirse a ellos como ‘eso’”.

Meta no respondió de inmediato a las preguntas de 404 Media sobre cómo se creó e implementó la política.

404 Media ha informado en repetidas ocasiones sobre cómo Meta modera el contenido en sus plataformas y el hecho de que la aplicación de la normativa por parte de Meta se ha vuelto mucho más complicada en los últimos años. Los expertos en moderación de contenido con los que habló 404 Media en 2024 dijeron que Meta ya había desmantelado muchos de sus equipos de moderación de contenido, lo que nos llevó a escribir un artículo titulado «¿ Facebook ha dejado de intentarlo? »

“Creo que estamos en una época de experimentación en la que las plataformas están dispuestas a arriesgarse y a decir: ‘¿Qué tan poca moderación de contenido podemos lograr?’”, nos dijo en ese momento Sarah T. Roberts, profesora de la UCLA y autora de Behind the Screen: Content Moderation in the Shadows of Social Media .

Roberts señala que, dado que Elon Musk se muestra abiertamente antagonista de los anunciantes y corteja a la extrema derecha, Mark Zuckerberg y Meta podrían simplemente hacer menos y seguir siendo vistos como un lugar acogedor para los anunciantes. Todo esto viene a decir que Meta ya estaba haciendo un muy mal trabajo con la moderación de contenido, y que sus políticas y su aplicación real ya afectaban desproporcionadamente a las personas LGBTQ. Los cambios del lunes, entonces, tienen crueldad en su especificidad y parecen un intento abierto de besar el anillo de Donald Trump.

A principios de esta semana, Casey Newton informó que los empleados actuales y anteriores están preocupados de que los cambios aumenten sustancialmente el discurso de odio en el sitio.

En Threads , Zuckerberg publicó que “algunas personas pueden abandonar nuestras plataformas para mostrarles virtudes, pero creo que la gran mayoría y muchos usuarios nuevos descubrirán que estos cambios mejoran los productos”.

Esto es especialmente irónico considerando que la decisión de Zuckerberg, dado el ya complicado régimen de aplicación de Meta, no puede verse como otra cosa que un intento muy público y abierto del CEO de señalar a Donald Trump que es un aliado .

404 Media

El desmantelamiento de la política de moderación de Meta dolerá, pero puede ser bueno a largo plazo

El anuncio de Meta el martes (7 ) de que, entre otras acciones, pondrá fin a las asociaciones con agencias de verificación de datos en Estados Unidos, reemplazándolas por “notas comunitarias”, y relajará las restricciones sobre ciertos tipos de contenido, ha alarmado a muchas personas.

De una manera un tanto enrevesada y no sin causar daños, esto podría llevarnos a un buen resultado (para nosotros) a largo plazo.

Si tomamos X (el antiguo Twitter) como ejemplo, la relajación de la moderación allí aceleró el descarte de la plataforma de Elon Musk como lugar habitable, lo que llevó a pérdidas de ingresos, usuarios y relevancia en el debate público.

Sería fantástico que esto se repitiera con Instagram, Facebook y Threads. Incluso si así fuera, tendremos que lidiar con tres consecuencias inevitables y preocupantes:

  1. Es probable que aumenten las campañas de odio, el acoso y la comisión de delitos (como el racismo y la homofobia en Brasil, por ejemplo, fuera de Estados Unidos). Dependerá de la policía y del poder judicial aumentar su atención y actuar con mayor rapidez para mitigar los daños.
  2. Las agencias de verificación de datos sufrirán un duro golpe financiero. Meta es el mayor financiador de muchas de ellas; algunas fueron creadas exclusivamente o principalmente para actuar en el marco del programa de la empresa.
  3. El lambetismo de Mark Zuckerberg hacia Trump, combinado con una amenaza explícita a la soberanía de la justicia latinoamericana y la legislación europea por parte de Joel Kaplan, vicepresidente de asuntos globales del Meta, podría tener graves efectos sistémicos, por ejemplo en las relaciones comerciales y diplomáticas y las políticas arancelarias entre esos países y Estados Unidos.

***

Sería ingenuo esperar un éxodo masivo de usuarios de las plataformas de Meta como respuesta al desmantelamiento de la moderación, aunque las búsquedas de eliminación de cuentas aumentaron drásticamente . Menos ingenuo sería presenciar una reacción más incisiva por parte de gobiernos y empresas comprometidas con valores opuestos a los explicitados por la dirigencia de Meta.

¿Qué tal si abandonan su presencia en Instagram y Facebook o, por lo menos, dejan de inyectar dinero en el motor publicitario de Meta? Si el negocio de Meta es dominar nuestra atención, nada perjudica más a la empresa que ignorarla.

A nivel individual, abandonar el barco es una decisión más difícil y menos obvia. Debería conservar mi cuenta de Instagram (es donde mis seres queridos publican actualizaciones) y no bloquearé Threads en el fediverso, aunque no condeno ni critico a quienes lo hagan o lo harán. Esa multitud de “bloqueos preventivos” a Threads tenía alguna razón.

Rodrigo Ghedin

Aumentan las búsquedas en Google sobre eliminación de Facebook e Instagram después de que Meta finalice la verificación de datos

Las búsquedas en Google sobre cómo cancelar y eliminar cuentas de Facebook, Instagram y Threads han experimentado aumentos explosivos en los EE. UU. desde que el director ejecutivo de Meta, Mark Zuckerberg, anunció que la compañía pondrá fin a su sistema de verificación de datos de terceros , flexibilizará las políticas de moderación de contenido y revertirá los límites anteriores a la cantidad de contenido político en los feeds de los usuarios.

Los críticos ven la medida como un intento de complacer a la administración entrante de Trump y evitar represalias políticas, sugiriendo que las consecuencias de las nuevas políticas de Meta podrían tener serias implicaciones para los tipos de publicaciones, discursos de odio y violencia y desinformación que pueden propagarse incluso más rápido de lo que ya lo hacen en las plataformas de Meta.

La reacción ha sido rápida. El interés en las búsquedas relacionadas con salir de las plataformas Meta aumentó esta semana, particularmente en los últimos dos días. Las búsquedas en Google de términos como “cómo eliminar Facebook de forma permanente” alcanzaron una puntuación máxima de 100, el nivel de interés más alto posible en Google Trends.

Según Google Trends, búsquedas relacionadas como «cómo eliminar todas las fotos de Facebook», «alternativa a Facebook», «cómo salir de Facebook», «cómo eliminar una cuenta de hilos» y «cómo eliminar una cuenta de Instagram sin iniciar sesión» se han convertido en búsquedas de gran éxito , con una popularidad que aumentó repentinamente en más del 5000% en comparación con períodos anteriores.

Para ser claros, las búsquedas durante los últimos tres meses sobre cómo eliminar Facebook han rondado un puntaje de 75 en Trends, alcanzando un máximo de 100 en torno a eventos específicos, como los últimos cambios de política de Meta y las elecciones presidenciales en noviembre de 2024.

El reciente crecimiento subraya el rechazo a la decisión de Meta de eliminar las protecciones contra el discurso de odio y el contenido político incendiario.

Meta había implementado políticas de verificación de datos y moderación de contenido después de años de proliferación de desinformación y discursos violentos en sus plataformas, que han causado daños en el mundo real. Un ejemplo de ello fue el intento de insurrección en el Capitolio el 6 de enero de 2021, que fue alimentado por llamados coordinados a la violencia en Facebook e Instagram. Documentos internos revelaron que Facebook no actuó con contundencia contra el movimiento Stop the Steal impulsado por los aliados de Trump, a pesar de que la empresa había identificado formas de disminuir la propagación de la polarización política, las teorías conspirativas y las incitaciones a la violencia.

Las búsquedas de alternativas a Meta también aumentan

Durante el mismo período, las búsquedas de Google «alternativas a Facebook» también han experimentado un aumento, al igual que las búsquedas de Bluesky y Mastodon , dos plataformas de redes sociales descentralizadas que han ido ganando popularidad desde que Elon Musk se hizo cargo de Twitter y lo rebautizó como X.

El director ejecutivo de Mastodon, Eugen Rochko, habló esta semana sobre los cambios en la moderación de contenido de Meta y calificó los cambios como «una preocupación para cualquiera que tenga conciencia». También señaló que los usuarios que publiquen de Threads a Mastodon a través de la función de intercambio de fediverse de Threads serán monitoreados en Mastodon por incitación al odio y violación de las políticas de la plataforma.

Techcrunch

Si pueden irse de Instagram/Facebook, háganlo! Si venden algo, un servicio, un producto, sólo a través de Instagram intenten armarse una página en un blog, como Blogspot o WordPress!
Puedo intentar ayudarlas/los a irse si quieren:

mi e-mail:

Eduardo_g(@)riseup.net (reemplace (@) por @)

#facebook #instagram #irseDeFacebook #irseDeInstagram #irseDeMeta #irseDeTwitter #MarkZuckerberg #meta #moderación #moderaciónDeContenido

NekoProgram TKZ Editionnekoprogram@tkz.one
2025-01-09

Resulta que estaba viendo un vídeo de YouTube en el que explicaban Mastodon, (Cosas del algoritmo y el clickbait, no he podido no hacer click).

Bajo a los comentarios y lo segundo que leo
cito textualmente:

" ¡Falso! La censura en Mastodon es peor que en las redes sociales convencionales. Me suspendieron definitivamente mi cuenta. Ni en Facebook nunca me han suspendido una cuenta por una publicación polémica. Alegué que no tenían pruebas verificables de lo que me acusaban, pero no les importó que yo tuviera la razón. "

Le iba a contestar pero visto que ha pasado un año para que molestarme, estará en Facebook/Twitter...

#Mastodon #youtube #descentralizacion #redessociales #activitypub #moderacion #centralizacion

2024-07-15

La prioridad número uno de #mastodon tendría que ser hacer excepcionalmente bien lo que todas las otras plataformas hacen mal o no hacen: Ofrecer múltiples y novedosas herramientas de #moderación, tanto para creadorxs de contenido como para simples lectorxs.

Tiene que ser una plataforma que nos permita tomar control de lo que queremos y no queremos ver, y donde poder sentirnos segurxs, cómodxs, y donde puedan proliferar comunidades sanas de seres humanos.

jeSuisatire …ᘛ⁐̤ᕐᐷjesuisatire@social.tchncs.de
2024-03-23

11/11
.. un comportamiento diferente por parte de sus participantes, eso es algo que tienen que aprender los que llegan de las redes asociales.

El cuello de botella de las #redesSociales es la #moderación, no la capacidad de los servidores o el software implementado. Comprenderlo significa abandonar el sueño de grandes sitios con muchos usuarios, de llegar a ser el siguiente Bill Gates.

Calidad, no cantidad, es el "unique selling point", la diferencia que se puede hacer.

#fediVerse #fediVerso

2024-03-20
Sobre las herramientas de moderación de FEDisroot

En los muchos años que soy usuario de redes sociales me he cruzado, como cualquiera, con toda clase de idiotas, comentarios estúpidos, insultos, provocaciones y todas esas cosas negativas que el anonimato suele excitar en las personas cobardes y enojadas con la vida.

Nunca reporté a nadie porque soy una persona capacitada para resolver conflictos, ya sea hablando o a través de las herramientas de moderación que las distintas plataformas que habité brindaban. Y porque me parecía que quienes administraban esos espacios tenían cosas más importantes que hacer. Estas herramientas siempre fueron suficientes como, entiendo, lo son las que ofrecen Akkoma, Mastodon, etc.

Ahora me toca ser uno de los administradores de esta instancia y, honestamente, no logro comprender qué carajo les pasa, gente.

No hay mucho que debatir cuando se trata de reportar a personas fascistas, misóginas, homófobas, pedófilas, acosadoras o con problemas para convivir con aquellas de géneros no binarios. Pero elevar un reporte debe ser una medida de último recurso, no la primera y única estrategia para resolver cuestiones "menores".

Y cuando digo "menores" me refiero a denunciar comentarios de idiotas y provocadores que no tienen nada mejor que hacer y piensan que tienen derecho a opinar en las publicaciones que no les gustan, denunciar a otras personas porque publican una imagen de una hamburguesa (no es broma), o porque opinan radicalmente distinto, tienen visiones del mundo que no compartimos o porque no son vegetarianas o son terraplanistas.

¿No son autosuficientes intelectualmente para silenciar o bloquear lo que no les gusta? Vamos.

Lo digo en serio. No pueden mandar tres, cuatro reportes sobre la misma persona por discusiones que no pueden manejar. Y encima pedir que la "castiguemos".

Tratamos de hacer lo humanamente posible para que este sea un espacio seguro, abierto al debate, respetuoso de las diversidades, en fin, habitable para cualquiera. Y lo hacemos por amor a nuestro proyecto y por quienes comparten y necesitan estos espacios tan difíciles de sostener muchas veces, por falta de tiempo, dinero, conocimientos, etc.

De nuevo, me parece que las herramientas de moderación de nuestra instancia son adecuadas y muy sencillas de utilizar. No nos hagan perder el tiempo que no tenemos con boludeces, por favor. Úsenlas.

Gracias.

#fedisroot #fediverso #disroot #moderación #reportes
2023-07-11

RT EAJ-PNV
📺 @AITOR_ESTEBAN: "A mí no me pareció un #debate, y lo que demostró es que hace falta una voz de #Euskadi en Madrid con #visión propia y #moderación, pero que plantee firmemente cuáles son los puntos de vista y las preocupaciones de la #ciudadanía vasca". #EuskadirenAhotsan.respublicae.eu/i/web/status/ t.co/WkHD7munNH

🐦🔗: n.respublicae.eu/eajpnv/status

2023-06-22
@jorge

"No bloqueamos tal instancia nazi porque no nos ha llegado ningún reporte."

> Me parece la peor forma de abordar lo que es la #moderación en el #Fediverso.

Dejo un comentario sobre el tema, invitado por la cita que abre el post, que es sospechosamente parecida a un comentario mío en el chat XMPP, aunque tergiversado.

La primera pregunta que me surge es ¿qué entendemos por "moderación"?

> Comunidad y solidaridad son de los valores más importantes que hemos construído en este ecosistema de instancias que pretende ser una nueva forma de llevar nuestras interacciones en el mundo digital."

A mí particularmente me cuesta dar por sentado que el Fediverso en su gran mayoría se ha construido sobre esos "valores". En todo caso, estamos en esto intentando construir comunidad aunque, desde mi percepción, sin mucho éxito justamente porque hay una cantidad de cosas (especialmente perspectivas políticas) que se dan por sentado y no fueron o no son consensuadas.

> Por eso es que hace unos 4-5 años atrás un grupo de instancias empezó a construir colectivamente un #fediblock (bloqueo) a instancias llenas de nazis, fachos, terfs y otros monstruos.

Interesante. Desconozco esa iniciativa. ¿Existe alguna lista actualizada de este tipo de instancias y el procedimiento para determinar sus niveles de nazismo/fascismo/racismo?

Nuestra instancia ha sido bloqueada por otras porque un usuario publicó una imagen de una hamburguesa. No es broma. ¿En qué categoría cae este caso?

> Hoy en día, ya la lista es vieja y muchos servidores han desaparecido pero hay un mínimo en que debemos confiar. Una base de la que partir al crear/administrar una instancia en este ecosistema.

No entiendo el comentario. ¿Una lista de instancias bloqueadas como base para crear/administrar una instancia?

> Y es por eso que creo que la actitud de no bloquear nada hasta que llegue un reporte me parece la más inacertada posible. Básicamente, ignora al resto de las comunidades, parte de un enfoque individualista y cerrado, no construye en colectivo.

No me queda claro cuál es la razón por la que bloquear instancias preventivamente es una acción más acertada que no hacerlo. Aquí es donde comenté que nuestra instancia no va a bloquear sin reportes a ninguna otra. Que las hay llenas de pedófilos, nazis, y libertarios no hay dudas. Pero no estamos todo el día buscando instancias con ideas diferentes o contrarias a la nuestras para bloquearlas por las dudas porque pensamos que "tenemos que cuidar a la gente". Estamos otra vez dando por sentado que estamos todes de acuerdo y pensamos lo mismo sobre la gestión de una instancia.

El tema me genera muchas más dudas y no acierto a encontrar las respuestas adecuadas.

¿Qué pasa si bloqueo como admin una instancia porque hay usuaries haciendo apología de la religión? ¿O porque comparten contenido de Twitter o YouTube? ¿O cualquier cosa que a mí me parezca ofensivo?

Mi experiencia moderando no me permite tener opiniones tan terminantes.

Alguien me dirá "bueno, los nazis son los nazis y es fácil identificarlos" o "hay que confiar en las decisiones de las demás instancias". Para mí no es tan simple.

Y menos después de ver la calidad de los reportes o denuncias que se suelen hacer, algunas sólidamente fundadas, pero la mayoría no.

Honestamente, encuentro difícil adoptar una postura paternalista o preventiva sobre el tema cuando hay herramientas de moderación a disposición de las personas.

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst