HTML

Feljegyzések

Senkinek nem szóló feljegyzések, amelyek csupán azt a célt hivatottak szolgálni, hogy a meglévő információ ne vesszen el, valahol megtalálható legyen a Neten.

Friss topikok

Linkblog

Sejt Regeneráció

2020.08.11. 09:29 Eshadow

Általában ha egy adatot fontosnak tartok, akkor több helyen is tárolom. Ennek több fokozata lehet, pl két különböző könyvtárban - de még ugyanazon a meghajtón - ez persze nem igazán biztonságos, hiszen ha megsérül a meghajtó, valószínűleg mindkét könyvtár elveszik.

Aztán lehet két különböző meghajtón, ez már sokkal biztonságosabb, hiszen kicsi az esélye, hogy mindkét meghajtó egyszerre hibásodik meg, így a fontos adat valahol mindig meglesz. De még így is előfordulhat, hogy eltűnik az adat, pl.: ha villámcsapás éri a rendszert, vagy egyszerűen csak tönkremegy a tápegység és mindent magával ránt, akkor ebben az esetben is eltűnik az információ.

A harmadik szint, ha különböző meghajtókon, különböző gépeken, felhőben, sőt, statikus tárolókon (pendrive, szalagos egység, stb.) több másolatom van, és ezek egyidőben nincsenek a rendszerhez csatlakoztatva (a fent említett villámcsapás miatt) ekkor már szinte 100% biztonsággal visszaállítható az eredeti információ.

Sérülések sokféle más okból is előfordulhatnak, ahogy az adatsűrűség növekedésével a külső környezeti hatások felerősödtek, lehet ez elektromágneses sugárzás, kozmikus sugárzás, mechanikai behatás, vagy más olyan akció, amely az egész meghajtót nem teszi tönkre, de a rajta tárolt adatokban kárt okozhat. Hibajavítást persze bevethetünk, és néha elő is fordul, hogy ki kell javítani egy megsérült dokumentumot. Ha mondjuk egy írott szövegről van szó, előfordul, hogy csak itt-ott hibádzik egy betű, esetleg egy szó vége, akkor még a szövegkörnyezetből ki lehet találni, mi volt ott eredetileg. Viszont ha súlyosabb a sérülés, akkor már nehezebb dolgunk van, ekkor jönnek jól az előzőleg gondosan eltett másolatok.

Érdekes, hogy az élő rendszerekben - látszólag - nem, vagy csak részben fejlődött ki ez a képesség. Pedig genetikai hibák mindig keletkeznek, és a hibajavító mechanizmusok dolgoznak is serényen, de sajnos egy idő után már nem képesek kijavítani a keletkező hibákat, miután azok nagyobb ütemben keletkeznek, mint amit a javító mechanizmusok kijavítani képesek. Ugyanis ezek a mechanizmusok csak egy sejten belülről veszik a mintát. Pedig másolatok léteznek, hiszen minden sejt (az örörkítősejtek kivételével) tartalmazza a teljes genomot, így aztán elegendő lenne összehasonlítani több sejtet. Persze mondhatnánk, hogy a különböző sejtekben különböző helyeken lehetnek hibák, és ez igaz is. De a nagy számok törvénye alapján minél több sejt genetikai információját hasonlítanánk össze, annál közelebb kerülnénk az eredeti genomhoz, hiszen kicsi az esélye, hogy mindegyik sejtben pontosan ugyanott sérüljön meg a DNS. És ebben az esetben nem 3, vagy 5 mintánk lehetne, hanem akár több ezer, több tízezer vagy akár több milliárd. Az összes mintából azokat a részeket vesszük figyelembe, amelyek azonosak - feltehetőleg ez lehet az eredeti genom - és ezt az összesített mintát használjuk a hibajavításhoz. Vajon így megkaphatnánk az örökké egészségesen, hibátlanul működő sejteket?

Na persze ez csak akkor lenne hasznos, ha az így nyert minta tényleg hibátlan, azaz egészséges működést kódol. Mert teszemazt, ha például egy öröklött rendellenességet tartalmaz a "gyári" genom, akkor ezt a hibát nem szeretnénk újra és újra visszakapni.

Szólj hozzá!

A bejegyzés trackback címe:

https://feljegyzet.blog.hu/api/trackback/id/tr2916127502

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása